JP3876595B2 - Audio signal generating method, audio signal generating apparatus, and recording medium - Google Patents

Audio signal generating method, audio signal generating apparatus, and recording medium Download PDF

Info

Publication number
JP3876595B2
JP3876595B2 JP2000182472A JP2000182472A JP3876595B2 JP 3876595 B2 JP3876595 B2 JP 3876595B2 JP 2000182472 A JP2000182472 A JP 2000182472A JP 2000182472 A JP2000182472 A JP 2000182472A JP 3876595 B2 JP3876595 B2 JP 3876595B2
Authority
JP
Japan
Prior art keywords
sound
frequency
waveform
waveform data
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000182472A
Other languages
Japanese (ja)
Other versions
JP2002006852A (en
Inventor
剛 二間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2000182472A priority Critical patent/JP3876595B2/en
Priority to DE60106680T priority patent/DE60106680T2/en
Priority to EP20010112465 priority patent/EP1168296B1/en
Priority to US09/865,954 priority patent/US6756532B2/en
Publication of JP2002006852A publication Critical patent/JP2002006852A/en
Application granted granted Critical
Publication of JP3876595B2 publication Critical patent/JP3876595B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、携帯電話器、電子楽器、アミューズメント機器等、楽音信号を発生する装置に用いられる音声信号発生方法、音声信号発生装置および記録媒体に関し、特にこれらのうち小型の機器に用いて好適な音声信号発生方法、音声信号発生装置および記録媒体に関する。
【0002】
【従来の技術】
電子楽器、携帯電話、アミューズメント機器等においては、内蔵または外付けの電気音響変換器(スピーカ等)を介して楽音信号が発音される。ここで、変換できる音の範囲には所定の限界がある。特に、低音に関しては、該電気音響変換器の最低共振周波数によって規定される最低周波数(以下、「最低周波数」と呼ぶ)までの音しか発音することができない。
【0003】
これを解決するため、「疑似低音」を発生させる技術が知られている。これは、ある2つの周波数の音声信号を発生させると、両者の最大公約数に相当する信号が聞こえる、という人間の錯覚を利用した技術である。例えば、100Hzの音声信号を出力できないスピーカによって100Hzの「疑似低音」を発生させるには、「200Hzと300Hz」、「300Hzと400Hz」等、最大公約数が100Hzになる2つの周波数を発生させるとよい。
【0004】
例えば、米国特許5930373号においては、その技術の詳細が開示されている。この技術においては、逐次供給されるデジタル音声信号のうち、スピーカで再生不可能な成分にフィルタリング処理が施され、これら成分の2倍、3倍、……の周波数成分が生成される。このように生成された周波数成分と元の音声信号とが加算され、スピーカを介して発音される。また、本出願人による特願2000−159478号(未公開)においては、疑似低音波形データを事前に生成しておき、通常楽音波形データとともに波形メモリに格納する技術が記載されている。この技術においては、高音域では通常楽音波形データのみを読出して楽音信号を生成する一方、低音域では通常楽音波形データと疑似低音波形データとを読出し、両者を混合して楽音信号を生成する技術が開示されている。
【0005】
【発明が解決しようとする課題】
上記技術においては、疑似低音を発生させるか否かは、楽音信号のピッチが所定の最低周波数(例えばカットオフ周波数)以下であるか否かに基づいて決定された。しかし、かかる技術では、最低周波数の前後で音質が大幅に異なることがあり、違和感が生じるという問題があった。
この発明は上述した事情に鑑みてなされたものであり、自然な状態で疑似低音を発生できる音声信号発生方法、音声信号発生装置および記録媒体を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載の波形信号生成方法にあっては、電気音響変換器を介して楽音を発生するために、複数発音チャンネルの波形信号を生成する波形信号生成方法であって、指定音高を伴う発音指示情報(ノートオンイベント)を受信する過程(ステップSP2)と、前記指定音高が、所定の境界音高(疑似低音開始周波数)以下であるか否かを判定する判定過程と、該判定過程において前記指定音高が前記境界音高(疑似低音開始周波数)以下でない旨が判定されたことを条件として、該指定音高を有する第1の波形信号を生成する第1の波形信号生成過程(SP52〜SP56)と、該判定過程において前記指定音高が前記境界音高(疑似低音開始周波数)以下である旨が判定されたことを条件として、前記第1の波形信号を生成するとともに、前記指定音高の第n次倍音(但し、nは2ないし4の自然数)と第n+1次倍音とを第2の波形信号として生成する第2の波形信号生成過程(SP62,SP64,SP66)と、前記指定音高が高くなるほど徐々に小となる係数を生成する係数生成過程(SP63)と、前記係数を前記第2の波形信号に乗算することによって、前記第2の波形信号のレベルを制御するレベル制御過程(図13:OP3,OP4)と処理装置(20)が実行することを特徴とする。
さらに、請求項2記載の構成にあっては、請求項1記載の波形信号生成方法において、前記第2の波形信号生成過程は、音源において前記第2の波形信号に対する発音チャンネルを割り当てる過程(ステップSP62)と、前記第2の波形信号に対応する楽音パラメータを該発音チャンネルに設定する過程(ステップSP66)とを含むことを特徴とする。
さらに、請求項3記載の構成にあっては、請求項1記載の波形信号生成方法において、前記第2の波形信号生成過程は、該第1音声信号から基本波成分を抽出する過程(基本波抽出部93)と、該基本波成分の高調波を生成する過程(等ラウドネス化部96)とを有することを特徴とする。
また、請求項4記載の波形信号生成装置にあっては、請求項1ないし3の何れかに記載の方法を実行することを特徴とする。
また、請求項5記載の記録媒体にあっては、請求項1ないし3の何れかに記載の方法を前記処理装置(20)に実行させるプログラムを記憶したことを特徴とする。
【0007】
【発明の実施の形態】
1.第1実施形態
1.1.実施形態の原理
1.1.1.波形の成分解析
本実施形態においては、楽音波形は「周期成分」と「ノイズ成分」とに分離して記憶されるため、これらの詳細について説明しておく。自然楽器の楽音波形をFFT(高速フーリエ変換)解析すると、この楽音波形の周波数成分は時間軸上で連続した周波数成分と、時間軸上で断続した周波数成分とに分離できる。そして、前者の周波数成分に基づいて波形合成すると楽音波形の「周期成分」が得られ、後者の周波数成分に基づいて波形合成すると楽音波形の「ノイズ成分」が得られる。
【0008】
その一例を図6に示す。同図(a)はサックスの楽音波形(元波形)である。同図(b)はその周期成分、同図(c)はそのノイズ成分である。これらの図から解るように、ノイズ成分は大きな振幅レベルとなる区間が短く、かつ、楽音信号の周期成分と比べて広い周波数範囲に分散する場合が多い。このため、電気音響変換器の特性が問題になることは希であり、周期成分についてのみ、必要に応じて疑似低音を発生すればよいことが解る。
【0009】
1.1.2.等ラウドネス曲線
人間の聴覚においては、たとえ音圧レベルが一定であったとしても、周波数が異なれば音量感が異なるように聞こえる。そこで、横軸を周波数とし、縦軸を音圧レベルとしたグラフ上で、音量感(ラウドネス)が等しくなるような音圧レベルのカーブを描くと、図5(a),(b)に示すような特性が得られる。これらの特性を「等ラウドネス曲線」と呼ぶ。同図(a)は「フレッチャー&マンソンの等ラウドネス曲線」と呼ばれており、若干古いものである。同図(b)は「ロビンソン&ダドソンの等ラウドネス曲線」と呼ばれており、比較的新しく、ISOにおいても採用されている。
【0010】
1.2.実施形態のハードウエア構成
次に、本発明の第1実施形態による携帯電話器のハードウエア構成を図1を参照し説明する。図において2は通信部であり、図示せぬ基地局との間で無線通信を行う。4はコーダ/デコーダであり、通信部2において送受信される信号の符号化および復号化を行う。3はマイクロフォンであり、ユーザの音声を検出する。6は表示器であり、ユーザに対して各種情報を表示する。8は入力装置であり、テンキーボード、方向ボタン等から構成され、ユーザによって各種の情報が入力される。10は音源であり、供給された演奏情報に基づいて呼出音等の楽音信号を生成する。本実施形態においては、音源10は波形メモリ音源によって構成されている。生成された楽音信号は、サウンドシステム12を介して発音される。なお、サウンドシステム12は、アンプと電気音響変換器とから構成されている。電気音響変換器としては、スピーカ、ヘッドフォン、イヤフォン等が選択可能であり、これらは異なる変換特性を有する。
【0011】
16はMIDIインタフェースであり、外部のMIDI機器との間でMIDI信号をやりとりする。18はバイブレータであり、携帯電話器がサイレントモードに設定されている際に該携帯電話器を振動させる。20はCPUであり、後述する制御プログラムに基づいて、バス14を介して携帯電話器内の各部を制御する。22はROMであり、オペレーティングシステム、楽音合成プログラム、携帯電話器既定の演奏情報、その他各種のデータを格納する。24はRAMであり、CPU20のワークメモリとして使用され、ユーザ定義の演奏情報も格納することが可能になっている。また、音源10内の波形メモリはバッテリーによりバックアップされており、ユーザ定義音色の波形データ等も格納することが可能になっている。
【0012】
1.3.実施形態の動作
1.3.1.波形データ作成処理
本実施形態で使用する波形データは、携帯電話器のメーカあるいはユーザにより、パーソナルコンピュータ等で作成することができる。その処理の内容を図3を参照し説明する。なお、同図はパーソナルコンピュータ内で実行される処理プログラムの内容を機能ブロック図で示したものである。
【0013】
図において30は、例えば自然楽器の楽音の録音波形等の素材波形データであり、外部からサウンドボードあるいはリムーバルディスク、ネットワーク等を介してパーソナルコンピュータに入力される。40は波形分析部であり、この素材波形データ30の周波数成分を時間軸上で連続している成分(決定論的周波数成分)と、それ以外の切れ切れの成分(ノイズ成分)とに分類する。ここで、波形分析部40の詳細を図4を参照し説明する。波形分析部40の内部において42はFFT解析処理部であり、この素材波形データ30に対してFFT解析処理を行う。ここでは、まず素材波形データ30に対して、そのピッチ周期の8倍の長さの窓関数が施され、該窓関数の範囲内における周波数成分が解析される。
【0014】
次に、窓関数の位置が時間軸上で該ピッチ周期の1/8だけ後ろにシフトされ、同様に周波数成分が解析される。この処理が原波形データ全体に対して繰り返えされると、時間軸上における周波数成分の変化が得られる。44は連続成分分離部であり、一連の周波数成分のうち時間軸上で連続している成分を分離する。分離された成分は決定論的周波数成分32として出力されるとともに、合成部46に供給される。合成部46においては、決定論的周波数成分32に基づいて決定論的波形データが合成される。48は減算部であり、素材波形データ30から決定論的波形データを減算する。この減算結果は、ノイズ成分波形データ34として出力される。
【0015】
図3に戻り、54はアタック&ループ情報であり、素材波形データ30を参照しつつユーザによって設定される。あるいは、ユーザの指定に応じて、前記波形分析の結果等を用いて自動設定されるようにしてもよい。アタック&ループ情報54の内容は、波形再生の最初に1回だけ読み出されるアタック部の長さ、その後に繰返し読み出されるループ部の長さ等である。36は波形合成部であり、決定論的周波数成分32とノイズ成分波形データ34とアタック&ループ情報54とに基づいて、アタック部およびループ部の波形データを合成する。合成された波形データは通常楽音波形データ38としてパーソナルコンピュータのハードディスク等に格納される。
【0016】
ここで、波形合成部36における合成処理の概要を説明しておく。まず、アタック&ループ情報54により、アタック部の先頭を示すアタックスタートアドレス、ループ部の先頭および終端を示すループスタートアドレスおよびループスエンドアドレスが決定される。次に、ループ部の決定論的周波数成分のうち、ループエンドでループスタートの位相と近い値になる成分が選択され、選択された成分についてはループエンドにおける位相がループスタートにおける位相と一致するように補正される。なお、ループがロングループ(ループサイズが数百ミリ秒以上)の場合、ループエンドでループスタートの位相と近い値でない成分(非調和成分)も選択して補正するようにしてもよい。次に、補正された周波数成分に基づいて正弦波合成が行われ、ループ部の波形データが生成される。
【0017】
次に、アタック部の決定論的周波数成分の中でループ部に使用されなかった成分がアタック部の途中からアタック部の終わりにかけて徐々にフェードアウトするように加工され、その加工された決定論的周波数成分に基づいて正弦波合成が行われ、アタック部の波形データが生成される。さらに、ノイズ成分波形データ34の音量が制御されつつ、これがアタック部およびループ部に混合される。以上のようにして作成されたアタック部とループ部の波形データは、素材波形データ30と極めて類似した波形であり、かつ、アタック部からループ部、およびループエンドからループスタートへのつながりの良い波形データになる。
【0018】
次に、60は疑似低音合成部であり、携帯電話器において疑似低音の再生を行うべき最高周波数を示す疑似低音開始周波数データ51と、決定論的周波数成分32と、アタック&ループ情報54とに基づいて疑似低音波形データ52を生成する。疑似低音開始周波数データ51は、携帯電話器の機種(またはヘッドフォン、イヤフォン等の機種)に応じて予め設定されている周波数であっても良いし、ユーザが任意に設定できる周波数であってもよい。ここで、疑似低音開始周波数データ51の決定方法の一例を図14を参照し説明しておく。同図において横軸は周波数あるいはノート番号NNであり、携帯電話器の電気音響変換器の特性に応じて同図上でカットオフ周波数(最低周波数)が決定される。
【0019】
上述したように、このカットオフ周波数を境として疑似低音を発生させるか否かを決定すると、カットオフ周波数の前後において音質が大幅に異なるという不具合が生ずる。そこで、本実施形態においては、カットオフ周波数よりも高い周波数においても疑似低音を発生させ、周波数が低くなるほど疑似低音のレベルを徐々に増加させ、これによって違和感を緩和することにした。具体的には、「0〜1」の範囲で周波数が低くなるほど高くなる音量係数RVOLを図示のように決定し、この音量係数RVOLを疑似低音波形に乗算すればかかる処理が実現できる。この音量係数RVOLの特性が横軸と交わる周波数を「疑似低音開始周波数」と呼ぶ。
【0020】
図3に戻り、疑似低音合成部60の内部において67は抽出部であり、決定論的周波数成分32の中から疑似低音開始周波数以下の周波数成分を抽出する。62は高調波発生部であり、抽出された各周波数成分に対して、上記疑似低音開始周波数を超える複数の高調波成分を生成する。ここで、前記抽出される周波数成分の周波数は時間的に変動しており、従って前記生成される高調波成分の周波数もそれに応じて変動する。
【0021】
例えば、カットオフ周波数(120Hz)よりも1オクターブ高い240Hzを疑似低音開始周波数に設定したものと仮定する。この場合、決定論的周波数成分32中の120<f≦240Hzの周波数成分に対して、少なくとも2倍および3倍の高調波成分が生成される。同様に、80<f≦120Hzの周波数成分に対しては少なくとも3倍および4倍の高調波成分が、60<f≦80Hzの周波数成分に対しては少なくとも4倍および5倍の高調波成分が生成されることになる。
【0022】
次に、68はエンベロープ変換部であり、各高調波成分によって生ずる疑似低音の音量感(ラウドネス)が、元々の周波数成分の音量感と一致するように、各高調波成分のエンベロープを出力する。その内容を図7を参照し説明しておく。先に図5(a),(b)に挙げた等ラウドネス曲線によれば、低音域(例えば100Hz)における音量感と同一の音量感を高調波成分(例えば200Hzと300Hz)において発生させるためには、高調波成分のレベルを小さくし、レベルの変化幅を大きくしなければならないことが解る。
【0023】
そこで、エンベロープ変換部68にあっては、抽出された元の周波数成分のエンベロープレベルが図7の特性Aに示すものであった場合に、これを同図の特性Bのように変換して高調波成分のエンベロープレベルとして出力する。図5(a),(b)の等ラウドネス曲線の低音域においては、何れも周波数が2倍になる毎に等ラウドネスの音圧レベルが10〜15dB下がる。従って、図7におけるレベルL1は、「10〜15dB×逓倍数」に設定される。また、ラウドネスの変化が等しくなるような音圧レベルの変化の大きさは、周波数が2倍になる毎に、「フレッチャー&マンソン」においては1.4倍程度、「ロビンソン&ダドソン」においては1.1倍程度になる。従って、図上のレベル比L3/L2は、「1.1〜1.4×逓倍数」程度に設定される。
【0024】
図3に戻り、64は振幅制御部であり、高調波発生部62から出力された各高調波成分に対して、エンベロープ変換部68から出力されたエンベロープレベルを乗算する。66は複数波形混合部であり、エンベロープの施された各高調波成分を混合する。この混合結果は、疑似低音波形データ52としてパーソナルコンピュータのハードディスクに格納される。以上のように作成された通常楽音波形データ38およびそれに対応する疑似低音波形データ52は、ユーザがパーソナルコンピュータに携帯電話器を接続し、所定の操作を行うと、ユーザ定義音色の波形データとして、音源10内の波形メモリに転送される。
【0025】
ところで、一般的に波形メモリ音源においては、各音色の各音域毎に、異なる通常楽音波形データ38が記憶される(音色間、音域間で波形データを共用する場合もある)。本実施形態では、その通常楽音波形データのうち、含まれる決定論的周波数成分の基本波成分が疑似低音開始周波数以下のピッチで楽音生成に使用される通常楽音波形データついてのみ、対応する疑似低音波形データ52を波形メモリに記憶する。基本的には、該通常楽音波形データ38と一対一に対応して記憶すればよいが、必ずしもそうしなくてもよい。場合によっては、1つの通常楽音波形データに対して複数の疑似低音波形データを記憶してもよいし、逆に複数の通常楽音波形データに対応して1つの疑似低音波形データを記憶してもよい。波形メモリに記憶された通常楽音波形データ38は、楽音信号が形成される際に、Fナンバに基づいた速度で読み出されることによって、所望のピッチが実現される。そうすると、本実施形態においては、通常楽音波形データ38の周波数成分のうちサウンドシステム12の能力によって実際に再生不可能になる周波数成分は、Fナンバに応じて変化することになる。そこで、本実施形態においては、音域毎に複数種類の疑似低音波形データ52が生成される。
【0026】
かかる理由により、本実施形態においては、一の疑似低音波形データ52の適用される音域は、一の通常楽音波形データ38の適用される音域よりも狭くなり、疑似低音波形データ52の数は多くなりがちである。しかし、疑似低音波形データ52の占めるメモリ領域はサンプリング周波数を抑制することにより、通常楽音波形データ38と比較してきわめて小さくすることができる。この理由について説明しておく。
【0027】
まず、一般的な民生機器では楽音波形のサンプリング周波数は、32〜48kHz程度であるが、これは再生周波数の上限を15〜20kHz程度に設定しているためである。一方、疑似低音波形データ52にあっては、(カットオフ周波数によっても異なるが)再生周波数の上限は2kHz程度で充分あるから、サンプリング周波数は5〜10kHz程度確保すれば充分である。このため、一の疑似低音波形データ52のデータ量は、一の通常楽音波形データ38の数分の一〜数十分の一程度に抑制することができる。なお、このように低いサンプリング周波数を適用する場合は、「8点補間」等、高精度なサンプル点間補間を採用すると好適である。
【0028】
1.3.2.波形合成処理
携帯電話器内のROM22およびRAM24には、着信音を再生するための演奏情報(例えばSMF(スタンダードMIDIフォーマット)ファイル)が記憶されている。そして、この携帯電話器に着信があると、該演奏情報が再生され、CPU20から音源10に対してMIDIイベントが逐次入力され、これに基づいて音源10において楽音波形が合成される。この音源制御処理の内容を図2を参照し説明する。
【0029】
(1)疑似低音効果がオフの場合
まず、ノートオンイベントが発生すると、同図(a)に示すノートオンイベント処理ルーチンが起動される。図において処理がステップSP2に進むと、パート番号が変数PTに、ノート番号が変数NNに、ベロシティが変数VELに代入される。次に、処理がステップSP4に進むと、フラグPLEが“1”であるか否かが判定される。なお、フラグPLEとは、疑似低音効果のオン/オフ状態を示すフラグであり、“1”はオン、“0”はオフを示す。なお、フラグPLEの値は、ユーザが所定の操作を行うことによって随時切り換えることができる。
【0030】
フラグPLEが“0”であればここで「NO」と判定され、処理はステップSP10に進む。ここでは、図2(b)に示す通常発音制御サブルーチンが呼び出される。図において処理がステップSP22に進むと、音源10において1チャンネル分の発音チャンネルが割り当てられる。この割り当てられた発音チャンネルのチャンネル番号をa1とする。
【0031】
次に、処理がステップSP24に進むと、該音源内のチャンネル番号a1に対して、パート番号PTに対応する音色TC(PT)と、ノート番号NNと、ベロシティVELとに応じた楽音パラメータが設定される。ここで、楽音パラメータには以下のようなものがある。
【0032】
(1)波形メモリに記憶された音色TC(PT)に対応する複数の通常楽音波形データ38のうちの、ノート番号NNに対応する通常楽音波形データ38(選択された波形データ)のアドレス情報
通常楽音波形データ38は一般的にアタック部およびループ部から構成されるため、これらのスタートおよびエンドアドレスを設定する必要がある。但し、音色TC(PT)によっては、通常楽音波形データ38は、ループ部のみから構成される場合やワンショットの波形データのみから構成される場合がある。また、ベロシティVELの範囲毎に異なる波形データを適用させる場合もある。
【0033】
(2)ノート番号NNに対応するFナンバ
通常楽音波形データ38には、各波形データ毎にオリジナルのピッチOPが定められている。ノート番号NNが指定されると、選択された波形データのオリジナルピッチOPとノート番号NNとの差分、及び、該波形データのサンプリング周波数に応じて、通常楽音波形データ38の読出アドレスの進行速度すなわちFナンバが決定される。
【0034】
(3)音量エンベロープパラメータ
音色TC(PT)、ベロシティVELおよびノート番号NNが指定されると、それらに応じて音量エンベロープを指定するための音量エンベロープパラメータが決定される。
(4)その他のパラメータ
その他、音色TC(PT)、ノート番号NN、ベロシティVELに対応した音色フィルタパラメータ、ピッチ変調パラメータ、振幅変調パラメータ等が適宜設定される。
【0035】
次に、処理がステップSP26に進むと、該音源のチャンネル番号a1に対して、発音開始が指示される。以上により、当該ノートオンイベントに対する処理が完了する。以後、音源10においては、ノート番号NNに応じた速度で通常楽音波形データ38が読み出され、更に、上記音色フィルタパラメータに応じたフィルタ処理や、上記音量エンベロープパラメータに応じた音量の時間変化処理が施されて、疑似低音を含まない状態でチャンネル番号a1に係る楽音信号が逐次生成される。そして、この楽音信号はサウンドシステム12を介して発音される。この楽音信号にカットオフ周波数以下の周波数成分が含まれていたとしても、該成分はサウンドシステム12で再生されず、ユーザはそれを聴くことができない。
【0036】
(2)疑似低音効果がオンの場合
疑似低音効果がオンの場合(フラグPLE=1)にノートオンイベントが発生すると、上記ステップSP2,SP4を介して処理はステップSP6に進む。ここでは、音色TC(PT)とノート番号NNとに基づいて、疑似低音波形を発生すべきか否か、すなわち疑似低音開始周波数以下の周波数成分が含まれているか否かが判定される。なお、ノート番号NNが特定されたとしても、その基本周波数は音色によってオクターブ単位でずれている場合があるので、音色TC(PT)を加味して判定している。
【0037】
例えば、カットオフ周波数が120Hz、疑似低音開始周波数が240Hzであって、ノート番号がそのまま基本周波数に相当している場合(オクターブずれの無い場合)を想定してみる。ここで基準ピッチがA4=440Hzであれば、A3=220Hz、A#3=233.08Hz、B3=246.92Hzになるから、音高がA#3以下の時に疑似低音波形を発生すべきであることが解る。
【0038】
次に、処理がステップSP8に進むと、ステップSP6の判定結果に応じて処理が分岐される。まず、「疑似低音波形を発生すべきでない(ノートナンバがB3以上)」と判定されると、処理はステップSP10に進む。これにより、疑似低音効果がオフであった場合と同様に通常発音制御サブルーチン(図2(b))が呼び出される。従って、当該ノートオンイベントに対して1チャンネル分の発音チャンネルが割り当てられ、該発音チャンネルにおいて通常楽音波形データ38に基づく楽音信号が逐次生成されることになる。
【0039】
一方、ステップSP8において「YES」と判定されると、処理はステップSP12に進む。ここでは、図8に示す疑似低音付き発音制御ルーチンが呼び出される。図において処理がステップSP32に進むと、音源10において2チャンネル分の発音チャンネルが割り当てられる。この割り当てられた発音チャンネルのチャンネル番号をa1,a2とする。次に、処理がステップSP33に進むと、ノート番号NNと、音色TC(PT)と、音量係数特性(図14)とに基づいて音量係数RVOLが決定される。
【0040】
次に、処理がステップSP34に進むと、該音源内のチャンネル番号a1に対して、パート番号PTに対応する音色TC(PT)と、ノート番号NNと、ベロシティVELとに応じた楽音パラメータが設定される。その処理内容は上述したステップSP24と同様である。次に、処理がステップSP36に進むと、チャンネル番号a1において生成する楽音信号に対応して、チャンネル番号a2に疑似低音用のパラメータが設定される。
【0041】
ここで、疑似低音用に設定される楽音パラメータには以下のようなものがある。
(1)ステップSP34で選択された通常楽音波形データ38に対応する疑似低音波形データ52(選択された疑似低音波形データ)のアドレス情報。
(2)ノート番号NNに対応する疑似低音波形データ52のFナンバ。
この疑似低音波形データ52用のFナンバも、通常楽音波形データ38のFナンバと同様の手順で決定される。すなわち、疑似低音波形データのオリジナルピッチOPとノート番号との差分、及び、該疑似低音波形データのサンプリング周波数に応じて、疑似低音波形データのFナンバが決定される。ここで、疑似低音波形データのオリジナルピッチOPは、対応する通常楽音波形データ(チャンネル番号a1で再生される波形データ)のオリジナルピッチOPと同じ値を有する。従って、疑似低音波形データのFナンバは、通常楽音波形データのFナンバに対して所定の比例関係を有する(ただし、サンプリング周波数は相互に異なる)。これにより、チャンネル番号a2では、チャンネル番号a1で生成される楽音信号に対して、ピッチおよび時間軸が完全に同期した疑似低音が得られる。
【0042】
(3)チャンネル番号a1の音量エンベロープに対応した疑似低音の音量エンベロープ
図7において説明したように、疑似低音の音量エンベロープ(特性B)は、元の波形の音量エンベロープ(特性A)とは異なる。従って、チャンネル番号a1の音量エンベロープを変形して疑似低音用の音量エンベロープが設定される。
但し、通常楽音波形データ38、疑似低音波形データ52とも、それぞれアタック部とループ部のうちのアタック部には音量エンベロープの変化する波形データが記憶されている。従って、波形メモリ音源の各チャンネルでは、該アタック部分について音量の時間変化を付与する必要はなく、アタック部の平坦な音量エンベロープを指定する音量エンベロープパラメータが設定されている。図9に、チャンネル番号a1で付与される通常楽音波形データ38用の音量エンベロープ(特性A’)と、チャンネル番号a2で付与される疑似低音波形データ52用の音量エンベロープ(特性B’)との例を示しておく。
【0043】
この各音量エンベロープは、図7に関して説明した等ラウドネスの関係に従うものであり、各チャンネルで再生する波形データがアタック部からループ部に入ったところで変化を開始している。平坦部においては、再生される通常楽音波形データ38に含まれる疑似低音開始周波数以下の周波数成分のラウドネスと疑似低音波形データのラウドネスを略一致させるため、特性B’のほうが特性A’に比べてレベルが低くなるよう設定されている。また、ループ部においては、再生される通常楽音波形データのループ部に含まれる疑似低音開始周波数以下の成分のラウドネス変化量と疑似低音波形データのループ部のラウドネス変化量を略一致させるため、特性B’の傾きが特性A’の傾きより急峻になるよう設定されている。これにより、チャンネル番号a2では、チャンネル番号a1で生成される楽音信号に含まれる疑似低音開始周波数以下の成分に対して、ラウドネス特性が追従する疑似低音波形が得られる。
【0044】
さらに、このようにして得られたチャンネル番号a2の音量エンベロープに対して、音量係数RVOLが乗算される。これにより、最低周波数周辺においてノート番号NNに対する音質の変化を緩やかにすることができ、自然な楽音信号を生成することが可能になる。
(4)その他のパラメータ
その他各種のパラメータの内容は、基本的にはチャンネル番号a1と同様に設定される。
【0045】
図8に戻り、処理がステップSP38に進むと、該音源内のチャンネル番号a1,a2に対して、発音開始が指示される。以上により、当該ノートオンイベントに対する処理が完了する。以後、音源10のチャンネル番号a1においては、ノート番号NNに応じた速度で通常楽音波形データ38が読み出され、疑似低音を含まない状態でチャンネル番号a1に係る楽音信号が逐次生成される。これに同期して、チャンネル番号a2においては、ノート番号NNに応じた疑似低音波形データ52が読み出され、疑似低音信号が逐次生成される。これにより両信号がサウンドシステム12を介して発音される。サウンドシステム12では楽音信号のうちの最低周波数以下の成分は再生されないが、ユーザはその再生されない成分の代りに該成分に対応する疑似低音を聴くことができ、該成分があたかも再生されているかのように錯覚する。
【0046】
以上のように、本実施形態によれば、通常楽音波形に対する音量エンベロープと、疑似低音波形に対する音量エンベロープとを個別に制御できるから、その時々の状況に応じて、等ラウドネス曲線に従って音量レベルおよびダイナミックレンジの制御を行うことが可能である。
【0047】
2.第2実施形態
次に、本発明の第2実施形態について説明する。第2実施形態のハードウエア構成は第1実施形態と同様であるが、波形メモリに用意する波形データおよび制御のためのソフトウェア構成は第1実施形態と比較して若干異なるため、相違点についてのみ説明する。
【0048】
(1)波形データ作成処理
本実施形態においては、図3および図4について説明したのと同様の波形データ作成処理が実行され、通常楽音波形データ38および疑似低音波形データ52が得られる。さらに、本実施形態においては、図10に示す処理が実行される。
【0049】
図において75は音量係数算出部であり、ノート番号NNが与えられると、音量係数特性(図14)に基づいて音量係数RVOLを算出する。72,74は振幅制御部であり、波形データ38,52の振幅を制御する。さらに、振幅制御部72においては、得られた振幅に対して音量係数RVOLが乗算される。すなわち、第1実施形態の図9における特性A’,B’のアタック部の差分に相当するレベル差が両波形データのエンベロープに付与され、しかる後に振幅制御部72ではさらに音量係数RVOLが乗算され、両波形データの振幅が設定される。76は混合部であり、振幅制御された両波形データを混合し、その結果を疑似低音込み波形データ78として出力する。これら波形データ38,78はパーソナルコンピュータのハードディスクに格納され、波形データ52は削除される。このようにして、通常楽音波形データ38と、それに含まれる疑似低音開始周波数以下の周波数成分に対応する疑似低音波形データ52であり、該周波数成分と等ラウドネスになるよう振幅制御された疑似低音波形データとが混合され、疑似低音込み波形データ78が用意された。
【0050】
ここでは、図7に関して説明した内容のうち、疑似低音のラウドネスを揃えるための音圧レベルの減衰を行っているが、ラウドネス変化を揃えるための音圧レベルの変化の大きさの制御は行っていない。これは「ロビンソン&ダドソン」において、該音圧レベルの変化の大きさの比が1に近いことから、省略してもよいと判断したためである。作成された通常楽音波形データ38と、それに対応する疑似低音込み波形データ78は、ユーザの所定の操作に応じて、パーソナルコンピュータから携帯電話器の音源10内の波形メモリに転送される。該波形メモリには、各音色の音域毎に通常楽音波形データ38が記憶されているが、疑似低音込み波形データはそのうちの基本波成分が疑似低音開始周波数以下のピッチで楽音生成に使用される通常楽音波形データ38についてのみ用意して波形メモリに記憶しておけばよい。
【0051】
(2)ノートオンイベント処理
本実施形態においても、ノートオンイベントが発生すると、第1実施形態と同様に、図2(a)に示すノートオンイベント処理ルーチンが起動される。疑似低音効果がオフの場合、ないし、疑似低音効果がオンでありかつ生成する楽音信号に疑似低音開始周波数以下の周波数成分が存在しない場合に実行されるステップSP10の処理は、第1実施形態と全く同じである。疑似低音効果がオンでありかつ生成する楽音信号に疑似低音開始周波数以下の周波数成分が含まれる場合には、ステップS12において、図8の処理の代りに図11に示す疑似低音付き発音制御ルーチンが呼び出される。
【0052】
このルーチンで実行されるステップSP42,SP44,SP46は、各々通常楽音波形に対して実行されるステップSP22,SP24,SP26(図2(b))の内容と同様である。但し、ステップSP44においては、通常楽音波形データ38に代えて、疑似低音込み波形データ78に対するアドレス情報、Fナンバ、音量エンベロープパラメータ、その他のパラメータが音源10に設定される。設定されるアドレス情報は、波形メモリに記憶された音色TC(PT)に対応する複数の通常楽音波形データ38のうちの、ノート番号NNに対応する通常楽音波形データ38に対応する疑似低音込み波形データ78のアドレス情報である。Fナンバ、音量エンベロープパラメータ、その他パラメータについては、基本的に、通常楽音波形データ38の対応するパラメータと同じ値とすればよい。
【0053】
これにより、ステップSP46において、該音源のチャンネル番号a1に対して、発音開始が指示されると、音源10においては、ノート番号NNに応じた速度で疑似低音込み波形データ78が読み出され、更に、上記音色フィルタパラメータに応じたフィルタ処理や、上記音量エンベロープパラメータに応じた音量の時間変化処理が施されて、疑似低音を含む状態でチャンネル番号a1に係る楽音信号が逐次生成される。そして、この楽音信号はサウンドシステム12を介して発音される。この楽音信号は、再生できない最低周波数以下の周波数成分に対応する疑似低音を含むので、ユーザにはあたかも該周波数成分が再生されているかのように聴こえる。さらに、最低周波数以上で疑似低音開始周波数以下の周波数成分に対しても、音量係数特性(図14)に応じて、周波数が低くなるほど音量係数RVOLが高くなるように疑似低音波形が生成されるため、最低周波数周辺においてノート番号NNに対する音質の変化を緩やかにすることができる。
【0054】
本実施形態によれば、疑似低音を発生させる場合であっても、一のノートオンイベントに対して割り当てられる発音チャンネルを1チャンネルに抑制することができる。このため、特に発音チャンネル数の増加を抑制したい場合に用いて好適である。
【0055】
3.第3実施形態
次に、本発明の第3実施形態について説明する。第3実施形態のハードウェア構成は、音源10が波形メモリ音源ではなく周波数変調音源(FM音源)である点を除いて第1実施形態と同じである。ソフトウェア構成についても第1実施形態と若干異なっているが、以下ではその相違点についてのみ説明を行なう。
【0056】
(1)波形データ作成処理
本実施形態においては、楽音信号はFM音源方式によって生成されるため、第1および第2実施形態のような波形データ作成処理は実行されない。
【0057】
(2)ノートオンイベント処理における通常発音制御
本実施形態においても、ノートオンイベントが発生すると、第1実施形態と同様に、図2(a)に示すノートオンイベント処理ルーチンが起動される。但し、本実施形態においては、疑似低音を生成すべきでない場合は、ステップSP10において図12(a)に示す通常発音制御サブルーチンが呼び出される。
【0058】
図12(a)において処理がステップSP52に進むと、音源10において1チャンネル分の発音チャンネルが割り当てられる。この割り当てられた発音チャンネルのチャンネル番号をa1とする。
【0059】
次に、処理がステップSP54に進むと、該音源内のチャンネル番号a1に対して、パート番号PTに対応する音色TC(PT)と、ノート番号NNと、ベロシティVELとに応じた楽音信号用の楽音パラメータが設定される。一般的に、音源チャンネルに設定されるFM音源の楽音パラメータは、各音色TC毎に1セットずつ用意された音色データに基づいて、楽音信号用の基本の楽音パラメータに対して、ノート番号NNおよびベロシティVELに応じた補正(スケーリング)を加えることにより用意される。ここで、楽音パラメータには以下のようなものがある。
【0060】
(1)アルゴリズム
本実施形態において採用されるFM音源方式においては、音色TC(PT)に応じてアルゴリズム(n個のオペレータの接続状態)が選択される。また、各オペレータで使用される波形データの種類(正弦波、正弦波の半波整流波形、正弦波の全波整流波形等)、上記波形データを生成するための位相データの進行速度を制御するピッチデータ(波形データのピッチを制御する)、各オペレータ毎の該ピッチデータに対する乗数(各オペレータにおける位相データの進行速度は乗数とピッチデータの積により制御される)、低周波変調制御データ(ビブラート等を制御する)、各オペレータで生成される波形データに施されるエンベロープ波形を制御するエンベロープパラメータ等が、音色TC(PT)、ノート番号NN、ベロシティVELに応じて決定される。アルゴリズムの内容としてはアルゴリズムの内容としては種々のものが考えられるが、単純な例として、図13(a)に示すように「n=2」個のオペレータOP1,OP2を直列接続したものが考えられる。
【0061】
(2)音量エンベロープパラメータ
FM音源から出力される楽音信号の音量エンベロープは、上記アルゴリズムの最終段のオペレータ(図示の例ではOP2)に付与されるエンベロープが対応する。上述したとおり、該エンベロープのエンベロープパラメータは、音色TC(PT)、ノート番号NN、ベロシティVELに応じて決定される。
【0062】
(3)その他のパラメータ
アルゴリズムの出力に対してフィルタリング処理を施す場合においては、音色TC(PT)、ノート番号NN、ベロシティVELに対応した音色フィルタパラメータ等が設定される。更に、生成される楽音信号のピッチを変動させるためのピッチエンベロープを制御するピッチエンベロープパラメータが設定される場合もある。
【0063】
次に、処理がステップSP56に進むと、該音源のチャンネル番号a1に対して、発音開始が指示される。以上により、当該ノートオンイベントに対する処理が完了する。以後、音源10においては、疑似低音を含まない状態でチャンネル番号a1に係る楽音信号が逐次生成される。そして、この楽音信号はサウンドシステム12を介して発音される。この楽音信号に最低周波数以下の周波数成分が含まれていたとしても、該成分はサウンドシステム12で再生されず、ユーザはそれを聴くことができない。
【0064】
(3)ノートオンイベント処理における疑似低音付き発音制御
ノートオンイベント処理ルーチン(図2(a))において処理がステップSP12に進むと、図12(b)に示す疑似低音付き発音制御ルーチンが呼び出される。図において処理が図において処理がステップSP62に進むと、音源10において2チャンネル分の発音チャンネルが割り当てられる。この割り当てられた発音チャンネルのチャンネル番号をa1,a2とする。次に、処理がステップSP63に進むと、ノート番号NNと、音色TC(PT)と、音量係数特性(図14)とに基づいて音量係数RVOLが決定される。
【0065】
次に、処理がステップSP64に進むと、該音源内のチャンネル番号a1に対して、パート番号PTに対応する音色TC(PT)と、ノート番号NNと、ベロシティVELとに応じた楽音信号用の楽音パラメータが設定される。その処理内容は上述したステップSP54と同様である。次に、処理がステップSP66に進むと、チャンネル番号a1において生成する楽音信号に対応して、チャンネル番号a2に疑似低音用のm個のオペレータが確保され、これらのパラメータが設定される。
【0066】
ここで、疑似低音用に設定される楽音パラメータには以下のようなものがある。
(1)アルゴリズム
疑似低音を発生するために、チャンネル番号2にはOP3,OP4の2オペレータを並列に接続した構成のアルゴリズム(図13(b)参照)を設定する。
チャンネル番号a1において生成される楽音信号の周波数成分には、疑似低音開始周波数以下の周波数成分が含まれている。ここで、チャンネル番号a1の最終段のオペレータで、ピッチデータの乗数が1のオペレータが当該チャンネルの最低音を生成していると仮定する。その場合、チャンネル番号a2には、チャンネル番号a1と同じくノート番号NNに対応した周波数fのピッチデータを設定し、更に、チャンネル番号a2の各オペレータで乗数を適宜設定することにより該周波数fの倍音を発生する。各オペレータでは、生成する波形データのピッチが疑似低音開始周波数より大きくなり、かつ、最大公約数が「1」になるような複数の乗数の組み合わせ(例えば「2,3」、「3,4」、……等)が設定され、実際に発生する信号のピッチ周波数は「2f,3f」、「3f,4f」、……のようになる。
【0067】
(2)音量エンベロープパラメータ
音色TC(PT)、ベロシティVELおよびノート番号NNが指定されると、疑似低音用のオペレータ(図示の例ではOP3,OP4)に付与される音量エンベロープを指定するために、音量エンベロープパラメータが決定される。両チャンネル番号a1,a2における音量エンベロープの関係は、第1および第2実施形態と同様である。すなわち、チャンネルa1で生成される楽音信号に含まれ疑似低音開始周波数以下の低域成分の音量エンベロープと等ラウドネス関係にある音量エンベロープが求められ、これらに対して各々音量係数RVOLを乗算して成るエンベロープパラメータがチャンネル番号a2の2つのオペレータにそれぞれ設定される。ここで、各オペレータに設定されるエンベロープパラメータは、それぞれ生成する波形データのピッチに応じて相互に異なっている。
【0068】
(3)その他のパラメータ
その他、ノート番号NN、ベロシティVELに対応した音色フィルタパラメータ等が設定される。チャンネル番号a1に前記ピッチエンベロープが設定されている場合には、チャンネル番号a2にも同じピッチエンベロープを設定することにより、チャンネル番号a2で生成される疑似低音のピッチを、チャンネル番号a1で生成される楽音信号のピッチ変動に追従させることができる。ここで、以上に説明した疑似低音用の楽音パラメータについても、楽音信号用の楽音パラメータと同様の方法で作成することができる。具体的には、まず、前記各音色TC毎に1セットずつ用意される音色データの中に疑似低音用のデータを含むようにする。そして、該音色データに含まれる疑似低音用の基本の楽音パラメータに対して、ノート番号NNおよびベロシティVELに応じた補正(スケーリング)を加えることにより、疑似低音用の楽音パラメータを作成する。
【0069】
図12(b)に戻り、処理がステップSP58に進むと、該音源内のチャンネル番号a1,a2に対して、発音開始が指示される。以上により、当該ノートオンイベントに対する処理が完了する。以後、音源10のチャンネル番号a1においては、疑似低音を含まない状態で楽音信号が逐次生成される。これに同期して、チャンネル番号a2においては、ノート番号NNに応じた疑似低音信号が逐次生成される。両信号がサウンドシステム12を介して発音されると、チャンネル番号a1の楽音信号のうち、最低周波数以下の周波数成分が再生されていないにも関わらず、チャンネル番号a2の疑似低音により、ユーザは該周波数成分があたかも聴こえているかのように錯覚する。さらに、最低周波数以上で疑似低音開始周波数以下の周波数成分に対しても、音量係数特性(図14)に応じて、周波数が低くなるほど音量係数RVOLが高くなるように疑似低音波形が生成されるため、最低周波数周辺においてノート番号NNに対する音質の変化を緩やかにすることができる。
【0070】
4.第4実施形態
次に、本発明の第4実施形態について説明する。第4実施形態のハードウエア構成は第3実施形態と同様であるが、ソフトウエア構成は第3実施形態と比較して若干異なるため、相違点についてのみ説明する。
【0071】
(1)ノートオンイベント処理における疑似低音付き発音制御
本実施形態においては、ノートオンイベント処理ルーチン(図2(a))において処理がステップSP12に進むと、図12(c)に示す疑似低音付き発音制御ルーチンが呼び出される。図において処理がステップSP72に進むと、音源10において1チャンネル分の発音チャンネルが割り当てられる。この割り当てられた発音チャンネルのチャンネル番号をa1とする。次に、処理がステップSP73に進むと、ノート番号NNと、音色TC(PT)と、音量係数特性(図14)とに基づいて音量係数RVOLが決定される。
【0072】
次に、処理がステップSP74に進むと、該音源内のチャンネル番号a1に対して、(m+n)のオペレータが確保される。ここで、本実施態様では各チャンネル毎にオペレータ数を変更可能なFM音源を使用するものとする。「m」および「n」は上記第3実施形態における通常発音用および疑似低音用のオペレータ数である。次に、これらに対してパート番号PTに対応する音色TC(PT)と、ノート番号NNと、ベロシティVELとに応じた楽音パラメータが設定される。
【0073】
ここで設定されるアルゴリズムは、上記第3実施形態における通常発音用のアルゴリズムと、疑似低音用アルゴリズムとを並列接続したものに等しい。その一例を図13(c)に示しておく。その他楽音パラメータの設定内容も、第3実施形態と同様である。
【0074】
次に、処理がステップSP76に進むと、該音源内のチャンネル番号a1に対して、発音開始が指示される。以上により、当該ノートオンイベントに対する処理が完了する。以後、音源10のチャンネル番号a1においては、疑似低音を含む楽音信号逐次生成される。
【0075】
以上のように、第3,第4実施形態の相違点は、疑似低音付き発音制御を行う際に、発音チャンネルを2チャンネル確保するか1チャンネル確保するかにある。何れの実施形態を選択するかは、1チャンネルあたりの最大オペレータ数が「n+m」以上であるか否かに基づいて決定するとよい。図13の例にあっては、仮に最大オペレータ数が「3」であれば第3実施形態(同図(a)+(b))の構成を採用せざるを得ない。また、最大オペレータ数が「4」以上であれば、何れの実施形態も採用し得るが、チャンネル数が抑制できる点で第4実施形態を採用する方が有利である。
【0076】
5.第5実施形態
次に、本発明の第5実施形態について説明する。第5実施形態のハードウエア構成は音源10を除いて第1実施形態と同様である。但し、ノートオンイベントが発生した時には、図2(a)におけるステップSP2およびステップSP10(同図(b)におけるステップSP22〜SP26)と同様の処理が実行される。すなわち、本実施形態においては疑似低音を発生させるか否かに基づいてソフトウエアの処理が変更されることはない。
【0077】
ここで、本実施形態における音源10の構成を図15を参照し説明する。同図(a)において82は通常楽音信号発生部であり、ノート番号NN、音色TC(PT)およびベロシティVELに基づいて、疑似低音を含まない通常楽音信号を発生する。通常楽音信号発生部82は、波形メモリ音源、FM音源等、どのような方式で楽音信号を発生させるものでもよい。84は疑似低音発生部であり、通常楽音信号発生部82から逐次出力される通常楽音信号に対して、リアルタイムに疑似低音信号を生成する。
【0078】
ここで、疑似低音発生部84の詳細構成を同図(b)を参照し説明する。図において92はLPFであり、通常楽音信号から疑似低音開始周波数以下の成分を抽出する。93は基本波抽出部であり、LPF92の出力信号の中から基本波成分を抽出する。94は高調波生成部であり、該基本波成分の高調波を生成する。例えば、基本波成分の周波数をfとしたとき、高調波生成部94は、2f,3f,4f,……の高調波成分を抽出する。96は等ラウドネス化部であり、等ラウドネス曲線に従って、該基本波成分の音量感と同一の音量感を呈するように各高調波成分の振幅を調整する。98は加算部であり、振幅が調整された各高調波成分を加算する。
【0079】
同図(a)に戻り、86は係数発生部であり、音源10に供給されたノート番号NNおよび音色TC(PT)と、音量係数特性(図14)とに基づいて、音量係数RVOLを出力する。85は乗算部であり、疑似低音発生部84から出力された疑似低音信号に音量係数RVOLを乗算する。88はミキサであり、通常楽音信号と疑似低音信号とを混合しサウンドシステム12に出力する。
【0080】
本実施形態によれば、通常楽音信号発生部82によって逐次生成される通常楽音信号に基づいて疑似低音信号が生成されるから、疑似低音生成のために発音チャンネルや楽音生成スロットを犠牲にすることなく、疑似低音を生成することができる。さらに、最低周波数以上で疑似低音開始周波数以下の周波数成分に対しても、音量係数特性(図14)に応じて、周波数が低くなるほど音量係数RVOLが高くなるように疑似低音波形が生成されるため、最低周波数周辺においてノート番号NNに対する音質の変化を緩やかにすることができる。
【0081】
6.変形例
本発明は上述した実施形態に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記各実施形態は携帯電話器上で本発明を実施したものであるが、同様の機能を各種の電子楽器、アミューズメント機器、パーソナルコンピュータ、その他楽音を発生する装置に使用してもよい。また、これらに用いられるソフトウエアをCD−ROM、フロッピーディスク等の記録媒体に格納して頒布し、あるいは伝送路を通じて頒布することもできる。
【0082】
(2)第5実施形態において、係数発生部86はノート番号NNおよび音色TC(PT)に基づいて音量係数RVOLを算出したが、これに代えて基本波抽出部93において抽出された基本波成分の周波数を用いてもよい。かかる構成によれば、音源特有の楽音パラメータを用いることなく音量係数RVOLを決定できるから、音源以外の発生源(例えばレコード、CD、有線/無線放送、磁気テープ等)から出力された音声信号に対して、適切な疑似低音を付与することができ、広い範囲に応用することが可能である。
【0083】
(3)上記各実施形態においては、最低周波数(120Hz)に対して1オクターブ高い周波数(240Hz)を疑似低音開始周波数に設定した。しかし、疑似低音開始周波数の選択方法はこれに限定されるわけではなく、例えば最低周波数に対して1/2オクターブ高い周波数、あるいは1/4オクターブ高い周波数に設定してもよい。
【0084】
(4)上記実施形態において、音源10とサウンドシステム12との間にサウンドシステムで再生可能な最低周波数以下の周波数成分を減衰するようなハイパスフィルタを介挿し、再生可能な最低周波数以下の周波数成分をカットしてもよい。これにより、サウンドシステム12内のアンプの消費電力を低減させることができる。
【0085】
(5)音源10が波形RAMを備えたPCM音源である場合、既存の波形データを分析することによって疑似低音波形を生成してもよい。その際、ユーザが疑似低音開始周波数を選択ないし指定し、選択ないし指定された疑似低音開始周波数に基づいて自動的に疑似低音波形データを作成するようにしてもよい。
【0086】
(6)本発明を電子楽器に適用する際、サウンドシステムを備えた電子楽器に組み込む場合は、メーカ側で該サウンドシステムにマッチする疑似低音効果を予め設定しておけば好適である。その場合でも、メーカ側で複数通りの設定を用意しておき、ユーザがその中から好みの設定を選択できるようにしてもよい。一方、サウンドシステムを備えていない電子楽器(シンセサイザ等)やパーソナルコンピュータ用のサウンドボード上の音源の場合は、予めサウンドシステムを特定することが不可能である。この場合は、疑似低音効果の疑似低音開始周波数、最低周波数、減衰量、振幅コンプレス量等の設定を電子楽器のパネルや、サウンドボードを装着するパーソナルコンピュータで行うとよい。
【0087】
(7)上記実施形態においては、疑似低音を生成するためのパラメータとして、疑似低音開始周波数と、減衰量(図7におけるレベルL1)と、疑似低音の振幅コンプレス量(同図のレベル比L3/L2)を用いた。しかし、減衰量と振幅コンプレス量を固定のパラメータとし、疑似低音開始周波数のみに基づいて疑似低音を発生させてもよい。あるいは、疑似低音における振幅コンプレスの変化を考慮せず、減衰量と疑似低音開始周波数のみに基づいて疑似低音を発生させてもよい。
【0088】
(8)上記実施形態において、複数のサウンドシステムのうち何れか切り換えて使用するような場合は、各サウンドシステム毎の疑似低音開始周波数等を予め記憶しておき、使用されるサウンドシステムの切換状況に応じて、自動的に疑似低音効果の設定を行うようにしてもよい。
【0089】
(9)疑似低音の制御を行うための制御データ(疑似低音制御データ)は、各音色の音色データの一部に含まれるようにするとよい。さらに、その音色データには、異なる最低周波数に対応する複数の疑似低音制御データを含ませておくとよい。その場合、サウンドシステム12の最低周波数をユーザが予め指定しておくと、その後は単に音色を選択する動作によって、その最低周波数にマッチする疑似低音制御データを自動的に選択し使用することが可能になる。
【0090】
(10)FM音源を用いた第3,第4実施形態においては、疑似低音生成のために2つのオペレータを並列に接続したアルゴリズムを使用したが、その他のアルゴリズムを使用してもよい。
例えば、2つのオペレータを直列に接続したアルゴリズムを使用する場合、再生されない低域成分の周波数と同じピッチのピッチデータを設定し、モジュレータ側のオペレータでは乗数「1」により該周波数と同じピッチの波形データを発生させ、キャリア側のオペレータでは乗数「2」により該周波数の2倍のピッチの波形データを発生させるようにすればよい。前記2倍のピッチの波形データに対して前記同じピッチの波形データで周波数変調をかけることにより、前記2倍のピッチを中心として前記同じピッチに対応する周波数の間隔でサイドバンドの周波数成分が発生する。前記2倍のピッチのキャリア成分と、その1つ上のサイドバンド成分(再生されない低域成分の周波数の3倍のピッチを持つ)とを使用して疑似低音を生成することができる。
【0091】
この場合、モジュレータ側のオペレータの出力レベルによって、前記キャリア成分と前記1つ上のサイドバンド成分の音量比が決定される。制御の容易化のため、該モジュレータ側のオペレータのエンベロープを時間変動させない、つまり、該音量比を固定値とするのが好適である。
そして、キャリア側のオペレータのエンベロープについては、再生されない低域成分の音量と等ラウドネスの関係を保ったまま時間変化するようエンベロープパラメータを設定すればよい。
【0092】
(11)上記実施形態においては、波形メモリ音源またはFM音源で疑似低音を生成したが、音源種類はこの2つに限らない。例えば、高調波合成方式や部分音合成方式の音源であれば、各チャンネルの複数のオシレータのうちの1ないし複数を使用して疑似低音を発生することができる。リング変調方式の音源であれば、2系列のオシレータのリング変調により発生する倍音を疑似低音に使用することができる。波形データのノンリニア変換が可能な音源であれば、該ノンリニア変換により発生する倍音に基づいて疑似低音を生成することができる。その他、物理モデル音源やアナログモデリング音源に適用してもよい。
【0093】
(12)上記実施形態においては、疑似低音効果をオン/オフできるようになっているが、常時オンとなるようにしてもよい。
【0094】
【発明の効果】
以上説明したように本発明によれば、指定音高が、電気音響変換器に関連して予め定められた境界音高以下であるか否かを判定することによって第1または第2の波形信号を生成するから、必要な演算量を低減しつつ疑似低音を発生させることができる。
【図面の簡単な説明】
【図1】 本発明の第1実施形態の携帯電話器のハードウエアブロック図である。
【図2】 (a)ノートオンイベント処理ルーチンおよび(b)通常発音制御サブルーチンのフローチャートである。
【図3】 第1実施形態における波形データ作成処理の内容を示すブロック図である。
【図4】 第1実施形態における波形データ分析処理の内容を示すブロック図である。
【図5】 等ラウドネス曲線を示す図である。
【図6】 波形の成分解析結果を示す図である。
【図7】 第1実施形態におけるエンベロープ変換特性図である。
【図8】 第1実施形態における疑似低音付き発音制御ルーチンのフローチャートである。
【図9】 第1実施形態における音量エンベロープの例を示す図である。
【図10】 第2実施形態における波形データ作成処理の要部を示すブロック図である。
【図11】 第2実施形態における疑似低音付き発音制御ルーチンのフローチャートである。
【図12】 第3,第4実施形態における制御ルーチンのフローチャートである。
【図13】 第3,第4実施形態におけるアルゴリズムのブロック図である。
【図14】 各実施形態の音量係数特性を示す図である。
【図15】 第5実施形態における音源10のブロック図である。
【符号の説明】
2……通信部、3……マイクロフォン、4……コーダ/デコーダ、6……表示器、8……入力装置、10……音源、12……サウンドシステム、14……バス、16……MIDIインタフェース、18……バイブレータ、20……CPU、22……ROM、24……RAM、30……素材波形データ、32……決定論的周波数成分、34……ノイズ成分波形データ、36……波形合成部、38……通常楽音波形データ、40……波形分析部、42……FFT解析処理部、44……連続成分分離部、46……合成部、48……減算部、51……疑似低音開始周波数データ、52……疑似低音波形データ、54……アタック&ループ情報、60……疑似低音合成部、62……高調波発生部、64……振幅制御部、66……複数波形混合部、67……抽出部、68……エンベロープ変換部、72,74……振幅制御部、75……音量係数算出部、76……混合部、78……疑似低音込み波形データ、82……通常楽音信号発生部、84……疑似低音発生部、85……乗算部、86……係数発生部、88……ミキサ、92……LPF、93……基本波抽出部、94……高調波生成部、96……等ラウドネス化部、98……加算部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an audio signal generating method, an audio signal generating apparatus, and a recording medium used for an apparatus for generating a musical sound signal such as a mobile phone, an electronic musical instrument, an amusement device, and the like, and particularly suitable for a small apparatus among them. The present invention relates to an audio signal generation method, an audio signal generation device, and a recording medium.
[0002]
[Prior art]
In an electronic musical instrument, a mobile phone, an amusement device, etc., a musical sound signal is generated via a built-in or external electroacoustic transducer (speaker or the like). Here, the range of sound that can be converted has a predetermined limit. In particular, with regard to bass, only sounds up to the lowest frequency (hereinafter referred to as “lowest frequency”) defined by the lowest resonance frequency of the electroacoustic transducer can be generated.
[0003]
In order to solve this, a technique for generating “pseudo bass” is known. This is a technique using the human illusion that when an audio signal of two frequencies is generated, a signal corresponding to the greatest common divisor of both is heard. For example, in order to generate a “pseudo bass” of 100 Hz by a speaker that cannot output an audio signal of 100 Hz, if two frequencies having a maximum common divisor of 100 Hz, such as “200 Hz and 300 Hz” and “300 Hz and 400 Hz”, are generated. Good.
[0004]
For example, US Pat. No. 5,930,373 discloses details of the technology. In this technique, filtering processing is performed on components that cannot be reproduced by a speaker in digital audio signals that are sequentially supplied, and frequency components that are twice, three times,... Of these components are generated. The frequency component generated in this way and the original audio signal are added and sounded through a speaker. Japanese Patent Application No. 2000-159478 (unpublished) by the present applicant describes a technique of generating pseudo low sound waveform data in advance and storing it in a waveform memory together with normal musical sound waveform data. In this technology, in the high frequency range, only the normal musical sound waveform data is read and a musical sound signal is generated, while in the low frequency range, the normal musical sound waveform data and the pseudo low acoustic waveform data are read and mixed to generate a musical sound signal. Is disclosed.
[0005]
[Problems to be solved by the invention]
In the above technique, whether or not to generate a pseudo bass is determined based on whether or not the pitch of the musical sound signal is equal to or lower than a predetermined minimum frequency (for example, a cutoff frequency). However, such a technique has a problem in that the sound quality may be significantly different before and after the lowest frequency, causing a sense of discomfort.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an audio signal generating method, an audio signal generating apparatus, and a recording medium that can generate a pseudo bass sound in a natural state.
[0006]
[Means for Solving the Problems]
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
Claim 1 Waveform signal generation method In that, A waveform signal generation method for generating a waveform signal of a plurality of sound generation channels in order to generate a musical sound via an electroacoustic transducer, wherein a sound generation instruction information (note-on event) with a specified pitch is received (steps) SP2), a determination process for determining whether or not the specified pitch is equal to or lower than a predetermined boundary pitch (pseudo bass start frequency), and in the determination process, the specified pitch is the boundary pitch (pseudo bass). A first waveform signal generation process (SP52 to SP56) for generating a first waveform signal having the specified pitch, on the condition that it is determined that it is not less than the start frequency), and the specified sound in the determination process The first waveform signal is generated on the condition that it is determined that the pitch is equal to or lower than the boundary pitch (pseudo bass start frequency), and the nth overtone (where n is the specified pitch) 2 And a natural number of 4) and the second waveform signal generation step of generating (SP62, SP64, SP66) and a second n + 1-order harmonic as the second waveform signal, the designated tone pitch A coefficient generation process (SP63) for generating a coefficient that gradually decreases as the value increases; A level control process (FIG. 13: OP3, OP4) for controlling the level of the second waveform signal by multiplying the second waveform signal by the coefficient; The Executed by the processing device (20) It is characterized by that.
Furthermore, in the configuration according to claim 2, according to claim 1. Waveform signal generation method In the above Second waveform signal generation The process takes place in the sound source Second waveform signal Process of assigning sound channel to SP62 ) And the above Second waveform signal The process of setting the musical sound parameter corresponding to SP66 ).
Furthermore, in the configuration according to claim 3, according to claim 1. Waveform signal generation method In Second waveform signal generation The process includes a process of extracting a fundamental wave component from the first audio signal (fundamental wave extraction unit 93) and a process of generating harmonics of the fundamental wave component (equal loudness conversion unit 96). To do.
Further, according to claim 4 Waveform signal generator In this case, the method according to any one of claims 1 to 3 is executed.
Moreover, in the recording medium of Claim 5, the method in any one of Claim 1 thru | or 3 is carried out. Let the processor (20) execute The program is memorized.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
1. First embodiment
1.1. Principle of the embodiment
1.1.1. Waveform component analysis
In the present embodiment, the musical sound waveform is stored separately as “periodic component” and “noise component”, and the details thereof will be described. When the musical sound waveform of a natural musical instrument is subjected to FFT (Fast Fourier Transform) analysis, the frequency component of the musical sound waveform can be separated into a frequency component that is continuous on the time axis and a frequency component that is intermittent on the time axis. When a waveform is synthesized based on the former frequency component, a “sound component” of a musical tone waveform is obtained, and when a waveform is synthesized based on the latter frequency component, a “noise component” of a musical tone waveform is obtained.
[0008]
An example is shown in FIG. FIG. 4A shows a musical sound waveform (original waveform) of a saxophone. FIG. 4B shows the periodic component, and FIG. 4C shows the noise component. As can be seen from these figures, the noise component often has a short section with a large amplitude level and is often distributed over a wider frequency range than the periodic component of the musical sound signal. For this reason, it is rare that the characteristics of the electroacoustic transducer become a problem, and it can be understood that only the periodic component needs to generate a pseudo bass as necessary.
[0009]
1.1.2. Equal loudness curve
In human hearing, even if the sound pressure level is constant, the sound volume seems to be different if the frequency is different. Therefore, when the curve of the sound pressure level with equal sound volume (loudness) is drawn on the graph with the horizontal axis representing the frequency and the vertical axis representing the sound pressure level, it is shown in FIGS. 5 (a) and 5 (b). Such characteristics can be obtained. These characteristics are called “equal loudness curves”. Figure (a) is called "Fletcher &Manson's equal loudness curve" and is a little old. The figure (b) is called “Robinson &Dudson's equal loudness curve”, which is relatively new and adopted in ISO.
[0010]
1.2. Hardware configuration of the embodiment
Next, the hardware configuration of the mobile phone according to the first embodiment of the present invention will be described with reference to FIG. In the figure, reference numeral 2 denotes a communication unit, which performs wireless communication with a base station (not shown). A coder / decoder 4 encodes and decodes signals transmitted and received in the communication unit 2. Reference numeral 3 denotes a microphone that detects a user's voice. Reference numeral 6 denotes a display that displays various information to the user. Reference numeral 8 denotes an input device, which includes a numeric keyboard, direction buttons, and the like, and various information is input by the user. A sound source 10 generates a musical tone signal such as a ringing tone based on the supplied performance information. In the present embodiment, the sound source 10 is constituted by a waveform memory sound source. The generated musical tone signal is generated through the sound system 12. The sound system 12 includes an amplifier and an electroacoustic transducer. As the electroacoustic transducer, a speaker, a headphone, an earphone or the like can be selected, and these have different conversion characteristics.
[0011]
Reference numeral 16 denotes a MIDI interface which exchanges MIDI signals with an external MIDI device. Reference numeral 18 denotes a vibrator which vibrates the mobile phone when the mobile phone is set to the silent mode. Reference numeral 20 denotes a CPU, which controls each unit in the cellular phone device via the bus 14 based on a control program to be described later. Reference numeral 22 denotes a ROM which stores an operating system, a musical tone synthesis program, performance information predetermined for a mobile phone, and various other data. Reference numeral 24 denotes a RAM which is used as a work memory for the CPU 20 and can store performance information defined by the user. The waveform memory in the sound source 10 is backed up by a battery, and can store waveform data of user-defined timbre.
[0012]
1.3. Operation of the embodiment
1.3.1. Waveform data creation process
The waveform data used in this embodiment can be created by a personal computer or the like by a mobile phone manufacturer or user. The contents of the processing will be described with reference to FIG. FIG. 2 is a functional block diagram showing the contents of the processing program executed in the personal computer.
[0013]
In the figure, reference numeral 30 denotes material waveform data such as a recording waveform of a musical tone of a natural musical instrument, for example, which is externally input to a personal computer via a sound board, a removable disk, a network, or the like. Reference numeral 40 denotes a waveform analysis unit, which classifies the frequency components of the material waveform data 30 into components that are continuous on the time axis (deterministic frequency components) and other cut-off components (noise components). Details of the waveform analysis unit 40 will be described with reference to FIG. Inside the waveform analysis unit 40, 42 is an FFT analysis processing unit, which performs FFT analysis processing on the material waveform data 30. Here, first, a window function having a length eight times the pitch period is applied to the material waveform data 30, and a frequency component within the range of the window function is analyzed.
[0014]
Next, the position of the window function is shifted backward by 1/8 of the pitch period on the time axis, and the frequency component is similarly analyzed. When this process is repeated for the entire original waveform data, a change in frequency component on the time axis is obtained. A continuous component separation unit 44 separates components that are continuous on the time axis from a series of frequency components. The separated component is output as a deterministic frequency component 32 and supplied to the synthesis unit 46. In the synthesizer 46, deterministic waveform data is synthesized based on the deterministic frequency component 32. A subtracting unit 48 subtracts deterministic waveform data from the material waveform data 30. This subtraction result is output as noise component waveform data 34.
[0015]
Returning to FIG. 3, reference numeral 54 denotes attack and loop information, which is set by the user with reference to the material waveform data 30. Or you may make it set automatically using the result of the said waveform analysis, etc. according to a user's specification. The contents of the attack & loop information 54 are the length of the attack portion that is read only once at the beginning of waveform reproduction, the length of the loop portion that is repeatedly read after that, and the like. Reference numeral 36 denotes a waveform synthesizer, which synthesizes the waveform data of the attack part and the loop part based on the deterministic frequency component 32, the noise component waveform data 34, and the attack & loop information 54. The synthesized waveform data is usually stored as musical tone waveform data 38 in a hard disk of a personal computer.
[0016]
Here, an outline of synthesis processing in the waveform synthesis unit 36 will be described. First, from the attack & loop information 54, an attack start address indicating the head of the attack portion, a loop start address indicating the head and end of the loop portion, and a loop end address are determined. Next, among the deterministic frequency components of the loop part, a component that is close to the phase of the loop start at the loop end is selected, and for the selected component, the phase at the loop end matches the phase at the loop start. It is corrected to. When the loop is a long group (the loop size is several hundred milliseconds or more), a component that is not a value close to the phase of the loop start at the loop end (an anharmonic component) may be selected and corrected. Next, sine wave synthesis is performed based on the corrected frequency component, and waveform data of the loop portion is generated.
[0017]
Next, the deterministic frequency component of the attack part that is not used in the loop part is processed so that it gradually fades out from the middle of the attack part to the end of the attack part, and the processed deterministic frequency Sine wave synthesis is performed based on the components, and waveform data of the attack part is generated. Further, while the volume of the noise component waveform data 34 is controlled, this is mixed into the attack part and the loop part. The waveform data of the attack part and the loop part created as described above is a waveform that is very similar to the material waveform data 30, and has a good connection from the attack part to the loop part and from the loop end to the loop start. Become data.
[0018]
Next, 60 is a pseudo bass synthesizing unit, which includes pseudo bass start frequency data 51 indicating the highest frequency at which pseudo bass playback should be performed in the mobile phone, deterministic frequency component 32, and attack & loop information 54. Based on this, pseudo low sound waveform data 52 is generated. The pseudo bass start frequency data 51 may be a frequency set in advance according to the model of the cellular phone (or the model of headphones, earphones, etc.), or may be a frequency that can be arbitrarily set by the user. . Here, an example of a method for determining the pseudo bass start frequency data 51 will be described with reference to FIG. In the figure, the horizontal axis is the frequency or note number NN, and the cut-off frequency (minimum frequency) is determined on the figure according to the characteristics of the electroacoustic transducer of the mobile phone.
[0019]
As described above, when it is determined whether or not to generate a pseudo bass sound with this cutoff frequency as a boundary, there arises a problem that the sound quality is significantly different before and after the cutoff frequency. Therefore, in the present embodiment, a pseudo bass is generated even at a frequency higher than the cutoff frequency, and the level of the pseudo bass is gradually increased as the frequency is lowered, thereby alleviating the uncomfortable feeling. Specifically, the volume coefficient RVOL that increases as the frequency decreases in the range of “0 to 1” is determined as shown in the figure, and this process can be realized by multiplying the volume coefficient RVOL by the pseudo low sound waveform. The frequency at which the characteristic of the volume coefficient RVOL intersects the horizontal axis is called “pseudo bass start frequency”.
[0020]
Returning to FIG. 3, an extraction unit 67 in the pseudo bass synthesis unit 60 extracts a frequency component equal to or lower than the pseudo bass start frequency from the deterministic frequency component 32. A harmonic generation unit 62 generates a plurality of harmonic components exceeding the pseudo bass start frequency for each extracted frequency component. Here, the frequency of the extracted frequency component varies with time, and therefore the frequency of the generated harmonic component also varies accordingly.
[0021]
For example, it is assumed that 240 Hz which is one octave higher than the cutoff frequency (120 Hz) is set as the pseudo bass start frequency. In this case, harmonic components at least twice and three times as high as the frequency components of 120 <f ≦ 240 Hz in the deterministic frequency component 32 are generated. Similarly, at least 3 times and 4 times higher harmonic components for frequency components of 80 <f ≦ 120 Hz, and at least 4 times and 5 times higher harmonic components for frequency components of 60 <f ≦ 80 Hz. Will be generated.
[0022]
Next, 68 is an envelope conversion unit, which outputs the envelope of each harmonic component so that the volume feeling (loudness) of the pseudo bass generated by each harmonic component matches the volume feeling of the original frequency component. The contents will be described with reference to FIG. According to the equal loudness curves previously shown in FIGS. 5A and 5B, in order to generate the same volume feeling in the low frequency range (for example, 100 Hz) in the harmonic components (for example, 200 Hz and 300 Hz). It is understood that the level of the harmonic component must be reduced and the level change width must be increased.
[0023]
Therefore, in the envelope conversion unit 68, when the envelope level of the extracted original frequency component is the one shown in the characteristic A in FIG. 7, this is converted into the harmonic B by converting it into the characteristic B in FIG. Output as the envelope level of the wave component. In the low sound range of the equal loudness curves of FIGS. 5A and 5B, the sound pressure level of the equal loudness decreases by 10 to 15 dB every time the frequency is doubled. Accordingly, the level L1 in FIG. 7 is set to “10-15 dB × multiplier number”. In addition, the magnitude of the change in the sound pressure level at which the changes in loudness are equal is about 1.4 times in “Fletcher & Manson” and 1 in “Robinson & Dudson” every time the frequency is doubled. About 1 time. Accordingly, the level ratio L3 / L2 in the figure is set to about “1.1 to 1.4 × multiplier number”.
[0024]
Returning to FIG. 3, reference numeral 64 denotes an amplitude control unit that multiplies each harmonic component output from the harmonic generation unit 62 by the envelope level output from the envelope conversion unit 68. Reference numeral 66 denotes a plural waveform mixing unit that mixes each harmonic component to which the envelope is applied. This mixing result is stored in the hard disk of the personal computer as pseudo low sound waveform data 52. The normal musical sound waveform data 38 and the corresponding pseudo low sound waveform data 52 created as described above are obtained as waveform data of a user-defined tone when a user connects a mobile phone to a personal computer and performs a predetermined operation. It is transferred to the waveform memory in the sound source 10.
[0025]
By the way, in general, in a waveform memory sound source, different normal musical sound waveform data 38 is stored for each tone range of each tone color (the waveform data may be shared between tone colors and between tone ranges). In this embodiment, among the normal musical sound waveform data, only the basic musical sound waveform data used for musical tone generation at a pitch where the fundamental wave component of the included deterministic frequency component is equal to or lower than the pseudo low frequency start frequency is the corresponding pseudo low sound. The waveform data 52 is stored in the waveform memory. Basically, the normal musical sound waveform data 38 may be stored in one-to-one correspondence, but this is not necessarily required. In some cases, a plurality of pseudo low sound waveform data may be stored for one normal musical sound waveform data, or conversely, one pseudo low sound waveform data may be stored corresponding to a plurality of normal musical sound waveform data. Good. The normal musical sound waveform data 38 stored in the waveform memory is read at a speed based on the F number when a musical sound signal is formed, thereby realizing a desired pitch. Then, in this embodiment, the frequency component that cannot be actually reproduced by the capability of the sound system 12 among the frequency components of the normal musical sound waveform data 38 changes according to the F number. Therefore, in the present embodiment, a plurality of types of pseudo low sound waveform data 52 are generated for each sound range.
[0026]
For this reason, in this embodiment, the sound range to which one pseudo low sound waveform data 52 is applied is narrower than the sound range to which one normal musical sound waveform data 38 is applied, and the number of pseudo low sound waveform data 52 is large. It tends to be. However, the memory area occupied by the pseudo low sound waveform data 52 can be made extremely small as compared with the normal musical sound waveform data 38 by suppressing the sampling frequency. The reason for this will be explained.
[0027]
First, in general consumer equipment, the sampling frequency of the musical sound waveform is about 32 to 48 kHz, because the upper limit of the reproduction frequency is set to about 15 to 20 kHz. On the other hand, in the pseudo low sound waveform data 52, the upper limit of the reproduction frequency is sufficient at about 2 kHz (although depending on the cut-off frequency), it is sufficient to secure the sampling frequency at about 5 to 10 kHz. For this reason, the data amount of one pseudo low sound waveform data 52 can be suppressed to a fraction of 1 to several tenths of one normal musical sound waveform data 38. In addition, when applying such a low sampling frequency, it is preferable to employ highly accurate inter-sample point interpolation such as “8-point interpolation”.
[0028]
1.3.2. Waveform synthesis processing
Performance information (for example, SMF (standard MIDI format) file) for reproducing a ring tone is stored in the ROM 22 and the RAM 24 in the cellular phone. When there is an incoming call to this cellular phone, the performance information is reproduced, and MIDI events are sequentially input from the CPU 20 to the sound source 10, and a musical sound waveform is synthesized in the sound source 10 based on this. The contents of the sound source control process will be described with reference to FIG.
[0029]
(1) When the pseudo bass effect is off
First, when a note-on event occurs, a note-on event processing routine shown in FIG. In the figure, when the process proceeds to step SP2, the part number is substituted for the variable PT, the note number is substituted for the variable NN, and the velocity is substituted for the variable VEL. Next, when the process proceeds to step SP4, it is determined whether or not the flag PLE is “1”. The flag PLE is a flag indicating the on / off state of the pseudo bass effect, where “1” indicates on and “0” indicates off. Note that the value of the flag PLE can be switched at any time by the user performing a predetermined operation.
[0030]
If the flag PLE is “0”, “NO” is determined here, and the process proceeds to step SP10. Here, the normal sound generation control subroutine shown in FIG. In the figure, when the process proceeds to step SP22, a tone generation channel for one channel is assigned in the sound source 10. The channel number of the assigned sound generation channel is set to a1.
[0031]
Next, when the process proceeds to step SP24, musical tone parameters corresponding to the tone color TC (PT) corresponding to the part number PT, the note number NN, and the velocity VEL are set for the channel number a1 in the sound source. Is done. Here, the musical sound parameters include the following.
[0032]
(1) Address information of the normal musical sound waveform data 38 (selected waveform data) corresponding to the note number NN among the plurality of normal musical sound waveform data 38 corresponding to the tone color TC (PT) stored in the waveform memory.
Since the normal musical sound waveform data 38 is generally composed of an attack part and a loop part, it is necessary to set these start and end addresses. However, depending on the tone color TC (PT), the normal musical sound waveform data 38 may be composed only of the loop portion or only one-shot waveform data. Further, different waveform data may be applied for each velocity VEL range.
[0033]
(2) F number corresponding to note number NN
In the normal musical sound waveform data 38, an original pitch OP is defined for each waveform data. When the note number NN is designated, the progress speed of the read address of the normal musical sound waveform data 38, that is, the difference between the original pitch OP of the selected waveform data and the note number NN and the sampling frequency of the waveform data, that is, The F number is determined.
[0034]
(3) Volume envelope parameter
When tone color TC (PT), velocity VEL, and note number NN are designated, a volume envelope parameter for designating a volume envelope is determined in accordance with them.
(4) Other parameters
In addition, a tone color filter parameter, a pitch modulation parameter, an amplitude modulation parameter, and the like corresponding to the tone color TC (PT), the note number NN, and the velocity VEL are appropriately set.
[0035]
Next, when the process proceeds to step SP26, a sound generation start is instructed for the channel number a1 of the sound source. Thus, the process for the note-on event is completed. Thereafter, in the sound source 10, the normal musical sound waveform data 38 is read at a speed corresponding to the note number NN, and further, a filtering process according to the timbre filter parameter and a time change process of the volume according to the volume envelope parameter. And a musical tone signal related to channel number a1 is sequentially generated in a state in which no pseudo bass is included. The musical tone signal is generated via the sound system 12. Even if the musical sound signal includes a frequency component equal to or lower than the cutoff frequency, the component is not reproduced by the sound system 12, and the user cannot hear it.
[0036]
(2) When the pseudo bass effect is on
If a note-on event occurs when the pseudo bass effect is on (flag PLE = 1), the process proceeds to step SP6 via steps SP2 and SP4. Here, based on the tone color TC (PT) and the note number NN, it is determined whether or not a pseudo low sound waveform should be generated, that is, whether or not a frequency component equal to or lower than the pseudo bass start frequency is included. Even if the note number NN is specified, the fundamental frequency may be shifted in octave units depending on the timbre, so the determination is made taking into account the timbre TC (PT).
[0037]
For example, assume that the cutoff frequency is 120 Hz, the pseudo bass start frequency is 240 Hz, and the note number corresponds to the fundamental frequency as it is (no octave shift). If the reference pitch is A4 = 440 Hz, then A3 = 220 Hz, A # 3 = 233.08 Hz, and B3 = 246.92 Hz. Therefore, a pseudo low sound waveform should be generated when the pitch is A # 3 or less. I understand that there is.
[0038]
Next, when the process proceeds to step SP8, the process branches according to the determination result of step SP6. First, if it is determined that “the pseudo low sound waveform should not be generated (note number is B3 or higher)”, the process proceeds to step SP10. As a result, the normal sound generation control subroutine (FIG. 2B) is called as in the case where the pseudo bass effect is off. Accordingly, a tone generation channel for one channel is assigned to the note-on event, and a tone signal based on the normal tone waveform data 38 is sequentially generated in the tone generation channel.
[0039]
On the other hand, if “YES” is determined in step SP8, the process proceeds to step SP12. Here, the pseudo-bass tone generation control routine shown in FIG. 8 is called. In the figure, when the process proceeds to step SP32, two tone generation channels are assigned in the sound source 10. The channel numbers of the assigned sound generation channels are a1 and a2. Next, when the process proceeds to step SP33, the volume coefficient RVOL is determined based on the note number NN, the tone color TC (PT), and the volume coefficient characteristic (FIG. 14).
[0040]
Next, when the process proceeds to step SP34, musical tone parameters corresponding to the tone color TC (PT) corresponding to the part number PT, the note number NN, and the velocity VEL are set for the channel number a1 in the sound source. Is done. The processing contents are the same as in step SP24 described above. Next, when the processing proceeds to step SP36, a pseudo bass parameter is set in the channel number a2 corresponding to the musical sound signal generated in the channel number a1.
[0041]
Here, the following tone parameters are set for the pseudo bass.
(1) Address information of pseudo low tone waveform data 52 (selected pseudo low tone waveform data) corresponding to the normal musical tone waveform data 38 selected in step SP34.
(2) F number of the pseudo low sound waveform data 52 corresponding to the note number NN.
The F number for the pseudo low sound waveform data 52 is also determined by the same procedure as the F number of the normal musical sound waveform data 38. That is, the F number of the pseudo low sound waveform data is determined according to the difference between the original pitch OP of the pseudo low sound waveform data and the note number and the sampling frequency of the pseudo low sound waveform data. Here, the original pitch OP of the pseudo low sound waveform data has the same value as the original pitch OP of the corresponding normal musical sound waveform data (waveform data reproduced by the channel number a1). Therefore, the F number of the pseudo low sound waveform data has a predetermined proportional relationship with the F number of the normal musical sound waveform data (however, the sampling frequencies are different from each other). As a result, in channel number a2, a pseudo bass sound in which the pitch and the time axis are completely synchronized with the musical sound signal generated in channel number a1 is obtained.
[0042]
(3) Volume envelope of pseudo bass corresponding to the volume envelope of channel number a1
As described with reference to FIG. 7, the volume envelope (characteristic B) of the pseudo bass is different from the volume envelope (characteristic A) of the original waveform. Accordingly, a volume envelope for pseudo bass is set by modifying the volume envelope of channel number a1.
However, in both the normal musical sound waveform data 38 and the pseudo low sound waveform data 52, waveform data whose volume envelope changes is stored in the attack portion of the attack portion and the loop portion, respectively. Therefore, in each channel of the waveform memory sound source, it is not necessary to give a temporal change in volume for the attack portion, and a volume envelope parameter for designating a flat volume envelope of the attack portion is set. FIG. 9 shows a volume envelope (characteristic A ′) for the normal musical sound waveform data 38 given by the channel number a1 and a volume envelope (characteristic B ′) for the pseudo low sound waveform data 52 given by the channel number a2. Here is an example.
[0043]
Each volume envelope follows the relationship of the equal loudness described with reference to FIG. 7, and starts changing when the waveform data reproduced in each channel enters the loop portion from the attack portion. In the flat portion, the loudness of the frequency component equal to or lower than the pseudo bass start frequency included in the reproduced normal musical sound waveform data 38 and the loudness of the pseudo low sound waveform data are substantially matched, so that the characteristic B ′ is more than the characteristic A ′. The level is set low. Also, in the loop part, the loudness change amount of the component below the pseudo bass start frequency included in the loop part of the normal musical sound waveform data to be reproduced substantially matches the loudness change quantity of the loop part of the pseudo bass sound form data, The slope of B ′ is set to be steeper than the slope of characteristic A ′. As a result, in channel number a2, a pseudo low sound waveform whose loudness characteristic follows a component equal to or lower than the pseudo bass start frequency included in the musical tone signal generated in channel number a1 is obtained.
[0044]
Further, the volume coefficient RVOL is multiplied by the volume envelope of the channel number a2 obtained in this way. As a result, the change in sound quality with respect to the note number NN can be moderated around the lowest frequency, and a natural musical sound signal can be generated.
(4) Other parameters
The contents of various other parameters are basically set in the same manner as channel number a1.
[0045]
Returning to FIG. 8, when the process proceeds to step SP38, the sound generation start is instructed to the channel numbers a1 and a2 in the sound source. Thus, the process for the note-on event is completed. Thereafter, in the channel number a1 of the sound source 10, the normal musical sound waveform data 38 is read at a speed corresponding to the note number NN, and the musical sound signal related to the channel number a1 is sequentially generated without including the pseudo bass. In synchronization with this, in the channel number a2, the pseudo low sound waveform data 52 corresponding to the note number NN is read, and pseudo bass signals are sequentially generated. As a result, both signals are generated via the sound system 12. The sound system 12 does not reproduce the component below the lowest frequency of the musical sound signal, but the user can listen to the pseudo bass corresponding to the component instead of the component not reproduced, and whether the component is reproduced. The illusion.
[0046]
As described above, according to the present embodiment, the volume envelope for the normal musical sound waveform and the volume envelope for the pseudo-low sound waveform can be individually controlled, so that the volume level and dynamics according to the equal loudness curve according to the situation at that time. It is possible to control the range.
[0047]
2. Second embodiment
Next, a second embodiment of the present invention will be described. The hardware configuration of the second embodiment is the same as that of the first embodiment, but the waveform data prepared in the waveform memory and the software configuration for control are slightly different compared to the first embodiment, so only the differences are described. explain.
[0048]
(1) Waveform data creation process
In the present embodiment, waveform data creation processing similar to that described with reference to FIGS. 3 and 4 is executed, and normal musical sound waveform data 38 and pseudo-low sound waveform data 52 are obtained. Further, in the present embodiment, the processing shown in FIG. 10 is executed.
[0049]
In the figure, reference numeral 75 denotes a volume coefficient calculation unit, which, when given a note number NN, calculates a volume coefficient RVOL based on the volume coefficient characteristic (FIG. 14). Reference numerals 72 and 74 denote amplitude control units that control the amplitude of the waveform data 38 and 52. Further, the amplitude control unit 72 multiplies the obtained amplitude by a volume coefficient RVOL. That is, a level difference corresponding to the difference between the attack portions of the characteristics A ′ and B ′ in FIG. 9 of the first embodiment is given to the envelopes of both waveform data, and then the amplitude control unit 72 further multiplies the volume coefficient RVOL. The amplitude of both waveform data is set. A mixing unit 76 mixes both waveform data whose amplitudes are controlled, and outputs the result as pseudo-low tone waveform data 78. These waveform data 38 and 78 are stored in the hard disk of the personal computer, and the waveform data 52 is deleted. In this way, the normal musical sound waveform data 38 and the pseudo low sound waveform data 52 corresponding to the frequency components equal to or lower than the pseudo bass start frequency included in the normal musical sound waveform data 38, and the pseudo low sound waveform whose amplitude is controlled to be equal to the frequency component. The data was mixed, and pseudo low tone waveform data 78 was prepared.
[0050]
Here, among the contents described with reference to FIG. 7, the sound pressure level is attenuated to align the loudness of the pseudo bass, but the control of the change in the sound pressure level to align the loudness change is performed. Absent. This is because in “Robinson & Dudson”, since the ratio of the magnitudes of the changes in the sound pressure level is close to 1, it is determined that the sound pressure level may be omitted. The generated normal musical sound waveform data 38 and the corresponding pseudo-low tone waveform data 78 are transferred from the personal computer to the waveform memory in the sound source 10 of the mobile phone in accordance with a user's predetermined operation. In the waveform memory, normal musical tone waveform data 38 is stored for each tone range, but the pseudo-bass waveform data is used for generating musical tones at a pitch whose fundamental wave component is below the pseudo bass start frequency. Only the normal musical sound waveform data 38 may be prepared and stored in the waveform memory.
[0051]
(2) Note-on event processing
Also in the present embodiment, when a note-on event occurs, the note-on event processing routine shown in FIG. 2A is started as in the first embodiment. The processing of step SP10 executed when the pseudo bass effect is off or when the pseudo bass effect is on and there is no frequency component equal to or lower than the pseudo bass start frequency in the generated musical sound signal is the same as that of the first embodiment. Exactly the same. When the pseudo bass effect is on and the musical tone signal to be generated includes a frequency component equal to or lower than the pseudo bass start frequency, in step S12, the tone generation control routine with pseudo bass shown in FIG. Called.
[0052]
Steps SP42, SP44, and SP46 executed in this routine are the same as the contents of steps SP22, SP24, and SP26 (FIG. 2B) executed for the normal musical sound waveform. However, in step SP44, instead of the normal musical sound waveform data 38, address information, F number, volume envelope parameter, and other parameters for the pseudo bass waveform data 78 are set in the sound source 10. The set address information is a pseudo bass waveform corresponding to the normal musical sound waveform data 38 corresponding to the note number NN among the plurality of normal musical sound waveform data 38 corresponding to the tone color TC (PT) stored in the waveform memory. This is address information of data 78. The F number, volume envelope parameter, and other parameters may basically be the same values as the corresponding parameters of the normal musical sound waveform data 38.
[0053]
As a result, when sound generation is instructed to the channel number a1 of the sound source in step SP46, the sound source 10 reads the pseudo bass waveform data 78 at a speed corresponding to the note number NN. Then, a filter process according to the timbre filter parameter and a time change process of the sound volume according to the sound volume envelope parameter are performed, and a musical tone signal related to the channel number a1 is sequentially generated in a state including a pseudo bass. The musical tone signal is generated via the sound system 12. Since this musical tone signal includes a pseudo bass corresponding to a frequency component below the lowest frequency that cannot be reproduced, the user can hear it as if the frequency component is being reproduced. Further, even for frequency components that are higher than the minimum frequency and lower than the pseudo bass start frequency, a pseudo bass waveform is generated so that the volume coefficient RVOL increases as the frequency decreases, according to the volume coefficient characteristic (FIG. 14). The change in sound quality with respect to the note number NN can be moderated around the lowest frequency.
[0054]
According to the present embodiment, even when a pseudo bass is generated, the sound generation channel assigned to one note-on event can be suppressed to one channel. For this reason, it is particularly suitable when it is desired to suppress an increase in the number of sound generation channels.
[0055]
3. Third embodiment
Next, a third embodiment of the present invention will be described. The hardware configuration of the third embodiment is the same as that of the first embodiment except that the sound source 10 is not a waveform memory sound source but a frequency modulation sound source (FM sound source). Although the software configuration is slightly different from that of the first embodiment, only the difference will be described below.
[0056]
(1) Waveform data creation process
In the present embodiment, since the tone signal is generated by the FM sound source method, the waveform data creation processing as in the first and second embodiments is not executed.
[0057]
(2) Normal pronunciation control in note-on event processing
Also in the present embodiment, when a note-on event occurs, the note-on event processing routine shown in FIG. 2A is started as in the first embodiment. However, in this embodiment, when the pseudo bass sound should not be generated, the normal sound generation control subroutine shown in FIG. 12A is called in step SP10.
[0058]
When the process proceeds to step SP52 in FIG. 12 (a), the sound source 10 is assigned a sound channel for one channel. The channel number of the assigned sound generation channel is set to a1.
[0059]
Next, when the process proceeds to step SP54, the tone signal TC (PT) corresponding to the part number PT, the note number NN, and the velocity VEL are used for the channel number a1 in the sound source. Music parameters are set. In general, the tone parameters of the FM tone generator set for the tone generator channel are based on tone color data prepared for each tone color TC, and the note number NN and the basic tone parameter for tone signals. It is prepared by adding correction (scaling) according to the velocity VEL. Here, the musical sound parameters include the following.
[0060]
(1) Algorithm
In the FM sound source method employed in the present embodiment, an algorithm (a connection state of n operators) is selected according to the tone color TC (PT). In addition, the type of waveform data used by each operator (sine wave, half-wave rectified waveform of sine wave, full-wave rectified waveform of sine wave, etc.), and the progression speed of the phase data for generating the waveform data are controlled. Pitch data (controls the pitch of the waveform data), a multiplier for the pitch data for each operator (the speed of the phase data in each operator is controlled by the product of the multiplier and the pitch data), low frequency modulation control data (vibrato) The envelope parameters for controlling the envelope waveform applied to the waveform data generated by each operator are determined according to the tone color TC (PT), the note number NN, and the velocity VEL. As the contents of the algorithm, various kinds of contents can be considered, but as a simple example, as shown in FIG. 13 (a), “n = 2” operators OP1 and OP2 are connected in series. It is done.
[0061]
(2) Volume envelope parameter
The volume envelope of the tone signal output from the FM sound source corresponds to the envelope given to the operator at the final stage of the algorithm (OP2 in the illustrated example). As described above, the envelope parameter of the envelope is determined according to the tone color TC (PT), the note number NN, and the velocity VEL.
[0062]
(3) Other parameters
When filtering processing is performed on the output of the algorithm, timbre filter parameters corresponding to the timbre TC (PT), note number NN, velocity VEL, and the like are set. Furthermore, a pitch envelope parameter for controlling a pitch envelope for changing the pitch of the generated tone signal may be set.
[0063]
Next, when the process proceeds to step SP56, the sound generation start is instructed to the channel number a1 of the sound source. Thus, the process for the note-on event is completed. Thereafter, the tone generator 10 sequentially generates a musical tone signal related to the channel number a1 without including the pseudo bass. The musical tone signal is generated via the sound system 12. Even if the musical sound signal includes a frequency component equal to or lower than the lowest frequency, the component is not reproduced by the sound system 12, and the user cannot hear it.
[0064]
(3) Pronunciation control with pseudo bass in note-on event processing
When the process proceeds to step SP12 in the note-on event processing routine (FIG. 2A), the pseudo-bass sound generation control routine shown in FIG. 12B is called. In the figure, when the process proceeds to step SP62 in the figure, two sound generation channels are assigned in the sound source 10. The channel numbers of the assigned sound generation channels are a1 and a2. Next, when the process proceeds to step SP63, the volume coefficient RVOL is determined based on the note number NN, the tone color TC (PT), and the volume coefficient characteristic (FIG. 14).
[0065]
Next, when the process proceeds to step SP64, the tone signal TC (PT) corresponding to the part number PT, the note number NN, and the velocity signal VEL corresponding to the channel number a1 in the sound source are processed. Music parameters are set. The processing content is the same as in step SP54 described above. Next, when the process proceeds to step SP66, m operators for pseudo bass are secured in the channel number a2 corresponding to the musical tone signal generated in the channel number a1, and these parameters are set.
[0066]
Here, the following tone parameters are set for the pseudo bass.
(1) Algorithm
In order to generate a pseudo bass, an algorithm (see FIG. 13B) having a configuration in which two operators OP3 and OP4 are connected in parallel is set for channel number 2.
The frequency component of the tone signal generated in channel number a1 includes a frequency component equal to or lower than the pseudo bass start frequency. Here, it is assumed that the operator at the last stage of the channel number a1 and the operator whose pitch data is 1 generates the lowest sound of the channel. In that case, the channel number a2 is set with the pitch data of the frequency f corresponding to the note number NN as with the channel number a1, and further, the harmonics of the frequency f are set by appropriately setting the multipliers for each operator of the channel number a2. The Occurrence To do. In each operator, a combination of a plurality of multipliers (for example, “2, 3”, “3,4”) such that the pitch of the waveform data to be generated is larger than the pseudo bass start frequency and the greatest common divisor is “1”. ,...) Are set, and the pitch frequency of the actually generated signal becomes “2f, 3f”, “3f, 4f”,.
[0067]
(2) Volume envelope parameter
When the tone color TC (PT), velocity VEL, and note number NN are designated, a volume envelope parameter is determined in order to designate a volume envelope to be given to a pseudo bass operator (OP3, OP4 in the illustrated example). The The relationship between the volume envelopes in both channel numbers a1 and a2 is the same as in the first and second embodiments. That is, a volume envelope having an equal loudness relationship with a volume envelope of a low frequency component included in the musical tone signal generated in the channel a1 and having a frequency equal to or lower than the pseudo bass start frequency is obtained, and each of them is multiplied by a volume coefficient RVOL. Envelope parameters are set for the two operators of channel number a2. Here, the envelope parameters set for each operator are different from each other according to the pitch of the waveform data to be generated.
[0068]
(3) Other parameters
In addition, a tone color filter parameter corresponding to the note number NN and velocity VEL is set. When the pitch envelope is set for the channel number a1, by setting the same pitch envelope for the channel number a2, a pseudo bass pitch generated by the channel number a2 is generated by the channel number a1. It is possible to follow the pitch variation of the musical sound signal. Here, the tone parameter for the pseudo bass described above can be created in the same manner as the tone parameter for the tone signal. Specifically, first, the tone color data prepared for each tone color TC includes pseudo bass data. Then, correction (scaling) according to the note number NN and velocity VEL is applied to the basic musical sound parameter for pseudo bass included in the tone color data, thereby creating a musical parameter for pseudo bass.
[0069]
Returning to FIG. 12B, when the process proceeds to step SP58, the start of sound generation is instructed to the channel numbers a1 and a2 in the sound source. Thus, the process for the note-on event is completed. Thereafter, in the channel number a1 of the sound source 10, musical tone signals are sequentially generated without including pseudo bass. In synchronization with this, a pseudo bass signal corresponding to the note number NN is sequentially generated in the channel number a2. When both signals are sounded through the sound system 12, the user is not able to reproduce the sound signal of the channel number a1 due to the pseudo bass sound of the channel number a2 even though the frequency component below the lowest frequency is not reproduced. An illusion that the frequency component is heard. Further, even for frequency components that are higher than the minimum frequency and lower than the pseudo bass start frequency, a pseudo bass waveform is generated so that the volume coefficient RVOL increases as the frequency decreases, according to the volume coefficient characteristic (FIG. 14). The change in sound quality with respect to the note number NN can be moderated around the lowest frequency.
[0070]
4). Fourth embodiment
Next, a fourth embodiment of the present invention will be described. The hardware configuration of the fourth embodiment is the same as that of the third embodiment, but the software configuration is slightly different from that of the third embodiment, so only the differences will be described.
[0071]
(1) Pronunciation control with pseudo bass in note-on event processing
In the present embodiment, when the processing proceeds to step SP12 in the note-on event processing routine (FIG. 2 (a)), a tone generation control routine with pseudo-bass shown in FIG. 12 (c) is called. In the figure, when the process proceeds to step SP72, a tone generation channel for one channel is assigned in the sound source 10. The channel number of the assigned sound generation channel is set to a1. Next, when the process proceeds to step SP73, the volume coefficient RVOL is determined based on the note number NN, the tone color TC (PT), and the volume coefficient characteristic (FIG. 14).
[0072]
Next, when the process proceeds to step SP74, an operator (m + n) is secured for the channel number a1 in the sound source. Here, in this embodiment, it is assumed that an FM sound source that can change the number of operators for each channel is used. “M” and “n” are the numbers of operators for normal tone generation and pseudo bass in the third embodiment. Next, musical tone parameters corresponding to the tone color TC (PT) corresponding to the part number PT, the note number NN, and the velocity VEL are set.
[0073]
The algorithm set here is equivalent to the algorithm for normal sound generation in the third embodiment and the algorithm for pseudo bass sound connected in parallel. An example of this is shown in FIG. The other musical tone parameter settings are the same as in the third embodiment.
[0074]
Next, when the process proceeds to step SP76, the sound generation start is instructed to the channel number a1 in the sound source. Thus, the process for the note-on event is completed. Thereafter, in the channel number a1 of the sound source 10, musical tone signals including pseudo bass are sequentially generated.
[0075]
As described above, the difference between the third and fourth embodiments is whether to secure two sound generation channels or one channel when performing sound control with pseudo-bass. Which embodiment is selected may be determined based on whether or not the maximum number of operators per channel is “n + m” or more. In the example of FIG. 13, if the maximum number of operators is “3”, the configuration of the third embodiment (FIG. 13 (a) + (b)) must be adopted. Further, any embodiment can be adopted as long as the maximum number of operators is “4” or more, but it is more advantageous to adopt the fourth embodiment in that the number of channels can be suppressed.
[0076]
5). Fifth embodiment
Next, a fifth embodiment of the present invention will be described. The hardware configuration of the fifth embodiment is the same as that of the first embodiment except for the sound source 10. However, when a note-on event occurs, the same processing as step SP2 and step SP10 in FIG. 2A (steps SP22 to SP26 in FIG. 2B) is executed. That is, in the present embodiment, the software processing is not changed based on whether or not the pseudo bass is generated.
[0077]
Here, the configuration of the sound source 10 in the present embodiment will be described with reference to FIG. In FIG. 9A, reference numeral 82 denotes a normal musical tone signal generator, which generates a normal musical tone signal that does not include a pseudo bass based on the note number NN, tone color TC (PT), and velocity VEL. The normal music signal generator 82 may generate a music signal by any method such as a waveform memory sound source or FM sound source. A pseudo bass generator 84 generates a pseudo bass signal in real time with respect to the normal tone signal sequentially output from the normal tone signal generator 82.
[0078]
Here, the detailed configuration of the pseudo bass generator 84 will be described with reference to FIG. In the figure, reference numeral 92 denotes an LPF, which extracts components below the pseudo bass start frequency from the normal musical tone signal. Reference numeral 93 denotes a fundamental wave extraction unit that extracts a fundamental wave component from the output signal of the LPF 92. A harmonic generation unit 94 generates harmonics of the fundamental wave component. For example, when the frequency of the fundamental wave component is f, the harmonic generation unit 94 extracts 2f, 3f, 4f,. Reference numeral 96 denotes an equal loudness converting unit that adjusts the amplitude of each harmonic component so as to exhibit the same volume feeling as that of the fundamental wave component according to an equal loudness curve. Reference numeral 98 denotes an adder, which adds each harmonic component whose amplitude is adjusted.
[0079]
Returning to FIG. 14A, 86 is a coefficient generator, which outputs a volume coefficient RVOL based on the note number NN and tone color TC (PT) supplied to the sound source 10 and the volume coefficient characteristic (FIG. 14). To do. A multiplication unit 85 multiplies the pseudo bass signal output from the pseudo bass generation unit 84 by a volume coefficient RVOL. Reference numeral 88 denotes a mixer that mixes the normal musical tone signal and the pseudo bass signal and outputs the mixed signal to the sound system 12.
[0080]
According to the present embodiment, since the pseudo bass signal is generated based on the normal tone signal sequentially generated by the normal tone signal generator 82, the sound generation channel and the tone generation slot are sacrificed for the pseudo bass generation. And pseudo bass can be generated. Further, even for frequency components that are higher than the minimum frequency and lower than the pseudo bass start frequency, a pseudo bass waveform is generated so that the volume coefficient RVOL increases as the frequency decreases, according to the volume coefficient characteristic (FIG. 14). The change in sound quality with respect to the note number NN can be moderated around the lowest frequency.
[0081]
6). Modified example
The present invention is not limited to the above-described embodiment, and various modifications can be made as follows, for example.
(1) Each of the above embodiments is the implementation of the present invention on a mobile phone, but the same function may be used for various electronic musical instruments, amusement devices, personal computers, and other devices that generate musical sounds. . Further, software used for these can be stored in a recording medium such as a CD-ROM or a floppy disk and distributed, or distributed through a transmission path.
[0082]
(2) In the fifth embodiment, the coefficient generator 86 calculates the volume coefficient RVOL based on the note number NN and the timbre TC (PT), but instead of this, the fundamental wave component extracted by the fundamental wave extractor 93 May be used. According to such a configuration, the volume coefficient RVOL can be determined without using a tone parameter peculiar to a sound source, so that an audio signal output from a source other than the sound source (for example, record, CD, cable / wireless broadcasting, magnetic tape, etc.) On the other hand, an appropriate pseudo-bass can be given and can be applied to a wide range.
[0083]
(3) In each of the above embodiments, a frequency (240 Hz) that is one octave higher than the lowest frequency (120 Hz) is set as the pseudo bass start frequency. However, the method of selecting the pseudo bass start frequency is not limited to this. For example, the frequency may be set to a frequency that is 1/2 octave higher or 1/4 octave higher than the lowest frequency.
[0084]
(4) In the above embodiment, a high-pass filter that attenuates a frequency component below the lowest frequency that can be reproduced by the sound system is interposed between the sound source 10 and the sound system 12, and a frequency component below the lowest frequency that can be reproduced. May be cut. Thereby, the power consumption of the amplifier in the sound system 12 can be reduced.
[0085]
(5) When the sound source 10 is a PCM sound source having a waveform RAM, a pseudo low sound waveform may be generated by analyzing existing waveform data. At that time, the user may select or designate the pseudo bass start frequency, and the pseudo bass waveform data may be automatically created based on the selected or designated pseudo bass start frequency.
[0086]
(6) When the present invention is applied to an electronic musical instrument, when it is incorporated into an electronic musical instrument equipped with a sound system, it is preferable that a maker side sets in advance a pseudo bass effect that matches the sound system. Even in such a case, a plurality of settings may be prepared on the manufacturer side so that the user can select a desired setting from the settings. On the other hand, in the case of an electronic musical instrument (such as a synthesizer) without a sound system or a sound source on a sound board for a personal computer, it is impossible to specify the sound system in advance. In this case, setting of the pseudo bass start frequency, minimum frequency, attenuation amount, amplitude compression amount, etc. of the pseudo bass effect may be performed by a panel of an electronic musical instrument or a personal computer equipped with a sound board.
[0087]
(7) In the above embodiment, the parameters for generating the pseudo bass are the pseudo bass start frequency, the attenuation (level L1 in FIG. 7), and the amplitude compression amount of the pseudo bass (level ratio L3 in the figure). / L2) was used. However, the attenuation amount and the amplitude compression amount may be fixed parameters, and the pseudo bass may be generated based only on the pseudo bass start frequency. Alternatively, the pseudo bass may be generated based only on the attenuation amount and the pseudo bass start frequency without considering the amplitude compression change in the pseudo bass.
[0088]
(8) In the above embodiment, when any one of a plurality of sound systems is switched and used, the pseudo bass start frequency for each sound system is stored in advance, and the switching status of the sound system to be used is stored. In response to this, the pseudo bass effect may be automatically set.
[0089]
(9) Control data (pseudo bass control data) for performing pseudo bass control may be included in a part of tone color data of each tone color. Further, the tone color data may include a plurality of pseudo bass control data corresponding to different lowest frequencies. In that case, if the user designates the minimum frequency of the sound system 12 in advance, then it is possible to automatically select and use the pseudo bass control data that matches the minimum frequency by simply selecting the tone. become.
[0090]
(10) In the third and fourth embodiments using an FM sound source, an algorithm in which two operators are connected in parallel is used to generate a pseudo bass sound, but other algorithms may be used.
For example, when using an algorithm in which two operators are connected in series, pitch data having the same pitch as the frequency of the low-frequency component that is not reproduced is set, and the operator on the modulator side uses the multiplier “1” to generate a waveform having the same pitch as that frequency. Data is generated, and the operator on the carrier side may generate waveform data having a pitch twice the frequency by a multiplier “2”. By applying frequency modulation to the waveform data with the same pitch as the waveform data with the double pitch, sideband frequency components are generated at intervals of frequencies corresponding to the same pitch with the double pitch as the center. To do. A pseudo bass sound can be generated by using the carrier component having the double pitch and the side band component (having a pitch that is three times the frequency of the low frequency component that is not reproduced).
[0091]
In this case, the volume ratio between the carrier component and the one sideband component above is determined by the output level of the operator on the modulator side. In order to facilitate control, it is preferable that the envelope of the operator on the modulator side is not changed over time, that is, the volume ratio is set to a fixed value.
For the envelope of the carrier-side operator, an envelope parameter may be set so as to change over time while maintaining the relationship between the volume of the low frequency component not reproduced and the equal loudness.
[0092]
(11) In the above embodiment, the pseudo bass is generated by the waveform memory sound source or the FM sound source, but the sound source types are not limited to these two. For example, in the case of a sound source of a harmonic synthesis system or a partial sound synthesis system, pseudo bass can be generated using one or more of a plurality of oscillators of each channel. In the case of a ring modulation type sound source, overtones generated by ring modulation of two series of oscillators can be used for pseudo bass. If the sound source is capable of nonlinear conversion of the waveform data, a pseudo bass can be generated based on the harmonics generated by the nonlinear conversion. In addition, you may apply to a physical model sound source and an analog modeling sound source.
[0093]
(12) In the above embodiment, the pseudo bass effect can be turned on / off, but may be always on.
[0094]
【The invention's effect】
As described above, according to the present invention, the first or second waveform signal is determined by determining whether or not the designated pitch is equal to or less than a predetermined boundary pitch related to the electroacoustic transducer. Therefore, it is possible to generate a pseudo bass while reducing a necessary calculation amount.
[Brief description of the drawings]
FIG. 1 is a hardware block diagram of a mobile phone according to a first embodiment of the present invention.
FIG. 2 is a flowchart of (a) a note-on event processing routine and (b) a normal sound generation control subroutine.
FIG. 3 is a block diagram showing the contents of waveform data creation processing in the first embodiment.
FIG. 4 is a block diagram showing the contents of waveform data analysis processing in the first embodiment.
FIG. 5 is a diagram showing an equal loudness curve.
FIG. 6 is a diagram showing a component analysis result of a waveform.
FIG. 7 is an envelope conversion characteristic diagram in the first embodiment.
FIG. 8 is a flowchart of a sound control routine with pseudo bass in the first embodiment.
FIG. 9 is a diagram showing an example of a volume envelope in the first embodiment.
FIG. 10 is a block diagram showing a main part of waveform data creation processing in the second embodiment.
FIG. 11 is a flowchart of a tone generation control routine with pseudo bass in the second embodiment.
FIG. 12 is a flowchart of a control routine in the third and fourth embodiments.
FIG. 13 is a block diagram of an algorithm in the third and fourth embodiments.
FIG. 14 is a diagram illustrating a volume coefficient characteristic of each embodiment.
FIG. 15 is a block diagram of a sound source 10 according to a fifth embodiment.
[Explanation of symbols]
2 …… Communication section, 3 …… Microphone, 4 …… Corder / decoder, 6 …… Display, 8 …… Input device, 10 …… Sound source, 12 …… Sound system, 14… Bus, 16 …… MIDI Interface: 18: Vibrator, 20: CPU, 22: ROM, 24: RAM, 30: Material waveform data, 32: Deterministic frequency component, 34: Noise component waveform data, 36: Waveform Synthesizer, 38 ... Normal musical sound waveform data, 40 ... Waveform analyzer, 42 ... FFT analysis processor, 44 ... Continuous component separator, 46 ... Synthesizer, 48 ... Subtracter, 51 ... Pseudo Bass start frequency data, 52 …… Pseudo bass waveform data, 54 …… Attack & loop information, 60 …… Pseudo bass synthesis unit, 62 …… Harmonic wave generation unit, 64 …… Amplitude control unit, 66 …… Multiple waveform mixing Part, 67 ... Extraction unit 68... Envelope conversion unit 72, 74... Amplitude control unit 75. Volume coefficient calculation unit 76... Mixing unit 78 .. Pseudo bass waveform data 82. , 84... Pseudo bass generator, 85... Multiplier, 86 .. coefficient generator, 88... Mixer, 92... LPF, 93 .. fundamental wave extractor, 94. ... Equal loudness conversion section, 98 ... Addition section.

Claims (5)

電気音響変換器を介して楽音を発生するために、複数発音チャンネルの波形信号を生成する波形信号生成方法であって、
指定音高を伴う発音指示情報を受信する過程と、
前記指定音高が、所定の境界音高以下であるか否かを判定する判定過程と、
該判定過程において前記指定音高が前記境界音高以下でない旨が判定されたことを条件として、該指定音高を有する第1の波形信号を生成する第1の波形信号生成過程と、
該判定過程において前記指定音高が前記境界音高以下である旨が判定されたことを条件として、前記第1の波形信号を生成するとともに、前記指定音高の第n次倍音(但し、nは2ないし4の自然数)と第n+1次倍音とを第2の波形信号として生成する第2の波形信号生成過程と、
前記指定音高が高くなるほど徐々に小となる係数を生成する係数生成過程と、
前記係数を前記第2の波形信号に乗算することによって、前記第2の波形信号のレベルを制御するレベル制御過程と
処理装置が実行することを特徴とする波形信号生成方法
A waveform signal generation method for generating waveform signals of a plurality of sound generation channels in order to generate a musical sound via an electroacoustic transducer,
A process of receiving pronunciation instruction information with a specified pitch;
A determination step of determining whether or not the specified pitch is equal to or lower than a predetermined boundary pitch;
A first waveform signal generating step for generating a first waveform signal having the specified pitch, on the condition that it is determined in the determination step that the specified pitch is not less than or equal to the boundary pitch;
The first waveform signal is generated on the condition that the specified pitch is determined to be equal to or lower than the boundary pitch in the determination process, and the nth harmonic (n) Is a natural number of 2 to 4) and the (n + 1) th overtone as a second waveform signal, a second waveform signal generation process;
A coefficient generation process for generating a coefficient that gradually decreases as the specified pitch increases;
A waveform signal generation method, wherein a processing device executes a level control process for controlling the level of the second waveform signal by multiplying the second waveform signal by the coefficient .
前記第2の波形信号生成過程は、
音源において前記第2の波形信号に対する発音チャンネルを割り当てる過程と、
前記第2の波形信号に対応する楽音パラメータを該発音チャンネルに設定する過程と
を含むことを特徴とする請求項1記載の波形信号生成方法
The second waveform signal generation process includes:
Assigning a sound channel for the second waveform signal in a sound source;
The waveform signal generation method according to claim 1, further comprising: setting a musical tone parameter corresponding to the second waveform signal in the sound generation channel.
前記第2の波形信号生成過程は、
該第1音声信号から基本波成分を抽出する過程と、
該基本波成分の高調波を生成する過程と
を有することを特徴とする請求項1記載の波形信号生成方法
The second waveform signal generation process includes:
Extracting a fundamental wave component from the first audio signal;
The waveform signal generating method according to claim 1, further comprising: generating harmonics of the fundamental wave component.
請求項1ないし3の何れかに記載の方法を実行することを特徴とする波形信号生成装置4. A waveform signal generating apparatus that executes the method according to claim 1. 請求項1ないし3の何れかに記載の方法を前記処理装置に実行させるプログラムを記憶したことを特徴とする記録媒体。A recording medium storing a program for causing the processing apparatus to execute the method according to claim 1.
JP2000182472A 2000-05-30 2000-06-19 Audio signal generating method, audio signal generating apparatus, and recording medium Expired - Fee Related JP3876595B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2000182472A JP3876595B2 (en) 2000-06-19 2000-06-19 Audio signal generating method, audio signal generating apparatus, and recording medium
DE60106680T DE60106680T2 (en) 2000-05-30 2001-05-22 Waveform signal generation with synthesizing of pseudo-deep tones
EP20010112465 EP1168296B1 (en) 2000-05-30 2001-05-22 Waveform signal generation method with pseudo low tone synthesis
US09/865,954 US6756532B2 (en) 2000-05-30 2001-05-25 Waveform signal generation method with pseudo low tone synthesis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000182472A JP3876595B2 (en) 2000-06-19 2000-06-19 Audio signal generating method, audio signal generating apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2002006852A JP2002006852A (en) 2002-01-11
JP3876595B2 true JP3876595B2 (en) 2007-01-31

Family

ID=18683221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000182472A Expired - Fee Related JP3876595B2 (en) 2000-05-30 2000-06-19 Audio signal generating method, audio signal generating apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3876595B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4568536B2 (en) 2004-03-17 2010-10-27 ソニー株式会社 Measuring device, measuring method, program
JP4826814B2 (en) * 2007-06-29 2011-11-30 ヤマハ株式会社 Audio signal processing device

Also Published As

Publication number Publication date
JP2002006852A (en) 2002-01-11

Similar Documents

Publication Publication Date Title
JP4817658B2 (en) Acoustic virtual reality engine and new technology to improve delivered speech
JP4668415B2 (en) Low frequency audio enhancement system
US7268287B2 (en) Music data providing apparatus, music data reception apparatus and program
KR20060083318A (en) Bass enhancement method and apparatus of audio signal
KR20010029508A (en) A reduced-memory reverberation simulator in a sound synthesizer
JPH0816169A (en) Sound formation, sound formation device and sound formation controller
US6865430B1 (en) Method and apparatus for the distribution and enhancement of digital compressed audio
KR20010039504A (en) A period forcing filter for preprocessing sound samples for usage in a wavetable synthesizer
JP2012104992A (en) Reproduction device, reproduction method, presentation device, and reproduction system
EP1168296B1 (en) Waveform signal generation method with pseudo low tone synthesis
JP4096973B2 (en) Waveform signal generation method, waveform signal generation apparatus, and recording medium
JPH08213862A (en) Audio regeneration device
JP2886402B2 (en) Stereo signal generator
JP3876595B2 (en) Audio signal generating method, audio signal generating apparatus, and recording medium
JP2001508886A (en) Apparatus and method for approximating exponential decay in a sound synthesizer
JP3605706B2 (en) Sound signal reproducing method and apparatus
JP3823689B2 (en) Waveform signal generation method, waveform signal generation apparatus, and recording medium
JP3202017B2 (en) Data compression of attenuated instrument sounds for digital sampling systems
JP2009031357A (en) Music piece distribution system, music piece editing device, music piece playback device, music piece storage device, and program
JP4096966B2 (en) Waveform signal generation method, waveform signal generation apparatus, and recording medium
JP2725444B2 (en) Sound effect device
EP1519619B1 (en) Loudspeaker sensitive sound reproduction
US8767969B1 (en) Process for removing voice from stereo recordings
JP2543458B2 (en) Sound reproduction device
KR100703923B1 (en) 3d sound optimizing apparatus and method for multimedia devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061023

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131110

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees