JP2006113487A - 楽音データ生成方法及び装置 - Google Patents

楽音データ生成方法及び装置 Download PDF

Info

Publication number
JP2006113487A
JP2006113487A JP2004303259A JP2004303259A JP2006113487A JP 2006113487 A JP2006113487 A JP 2006113487A JP 2004303259 A JP2004303259 A JP 2004303259A JP 2004303259 A JP2004303259 A JP 2004303259A JP 2006113487 A JP2006113487 A JP 2006113487A
Authority
JP
Japan
Prior art keywords
value sequence
component value
component
variation
musical tone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004303259A
Other languages
English (en)
Other versions
JP2006113487A5 (ja
JP4218624B2 (ja
Inventor
Junji Kuroda
淳二 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004303259A priority Critical patent/JP4218624B2/ja
Priority to US11/248,583 priority patent/US7626113B2/en
Priority to CN200510113585.9A priority patent/CN1763841B/zh
Priority to EP05022583.8A priority patent/EP1653442B1/en
Publication of JP2006113487A publication Critical patent/JP2006113487A/ja
Publication of JP2006113487A5 publication Critical patent/JP2006113487A5/ja
Application granted granted Critical
Publication of JP4218624B2 publication Critical patent/JP4218624B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • G10H1/057Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by envelope-forming circuits
    • G10H1/0575Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by envelope-forming circuits using a data store from which the envelope is synthesized
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/161Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments, also rapid repetition of the same note onset, e.g. on a piano, guitar, e.g. rasgueado, drum roll
    • G10H2210/165Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/201Vibrato, i.e. rapid, repetitive and smooth variation of amplitude, pitch or timbre within a note or chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/315Dynamic effects for musical purposes, i.e. musical sound effects controlled by the amplitude of the time domain audio envelope, e.g. loudness-dependent tone color or musically desired dynamic range compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/045Special instrument [spint], i.e. mimicking the ergonomy, shape, sound or other characteristic of a specific acoustic musical instrument category
    • G10H2230/061Spint organ, i.e. mimicking acoustic musical instruments with pipe organ or harmonium features; Electrophonic aspects of acoustic pipe organs or harmoniums; MIDI-like control therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/461Gensound wind instruments, i.e. generating or synthesising the sound of a wind instrument, controlling specific features of said sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Abstract

【課題】 サンプリングした波形データに含まれる振幅やピッチなどの楽音要素を高品質に制御する。
【解決手段】 楽器の生演奏によって得られた波形データ中の振幅やピッチなどの楽音要素の時変動特性には、演奏者が意図した若しくは制御可能な変動成分と、演奏者が意図しない若しくは制御できない変動成分とが有ることに着目し、両成分を分離して、独立に調整・制御しうるようにすることで、有効かつ高品質な制御を行なう。オリジナル波形データにおける特定の楽音要素に関して離散的な変動値列を取得し、これを、時定数的な因子に従い、時定数の大きな「うねり」値列と、時定数の小さな「ゆらぎ」値列とに分離する。これを独立に可変制御し、楽音波形合成を行う。
【選択図】 図2

Description

この発明は、電子楽器や自動演奏装置等その他の楽音発生装置において利用しうるものであり、サンプリングした波形データに含まれる振幅やピッチなどの楽音要素を高品質に制御することを可能にする楽音データ生成方法及び装置並びに楽音合成方法及び装置に関する。
サンプリングした楽音の波形データをメモリに記憶し、このメモリに記憶した波形データを電子楽器等の音源として使用する所謂サンプラーが従来より知られている。サンプリングした波形データを音源として使用して楽音生成する場合に、サンプリングした元の波形そのものを単純に再生するのではなく、楽音再生の際に、ピッチや振幅等の楽音要素を自由に制御・調整できるようにすることが望まれる。そのような工夫を行なった従来技術として、下記特許文献1には、楽音信号をサンプリングしてPCM波形データとしてメモリに記憶する場合に、同時に、該楽音信号に含まれるゆらぎ成分(変動成分)を周波数と振幅についてそれぞれ検出し、ゆらぎデータ記憶手段に記憶することが示されている。メモリに記憶した波形データを読み出して楽音信号を再生する場合に、ゆらぎデータ記憶手段から周波数及び振幅のゆらぎデータも読み出し、これらのゆらぎデータによって読み出された波形データの周波数変調及び振幅変調をそれぞれ行い、かつ、これらの変調の深さ制御を行う。しかし、この従来技術は、PCM波形データにおける周波数や振幅についての変動成分そのものをゆらぎ成分として検出し、かつ、それらを変調制御するものでしかない。また、下記特許文献2には、サンプリングした楽音信号において時間的に変化するピッチを検出し、これに基づき楽音ピッチの時間的変化を示すピッチエンベロープ情報をメモリに記憶し、楽音再生時において、ピッチエンベロープ情報を補間することで適宜変更したピッチエンベロープを生成し、これに基づき再生楽音のピッチを設定するようにしたことが示されている。この従来技術も、楽音信号におけるピッチの時間的変動そのものを検出して記憶し、かつ、それらを変更制御して楽音再生に使用するものでしかない。
特開平5−297866号公報 特公平7−82336号公報
上述したような従来技術においては、例えば自然楽器で演奏された楽音をサンプリングすることで高品質な波形データを得ることができ、かつ、そのピッチや振幅の楽音要素の時間的変動をエンベロープとして検出し記憶し、再生時にこれらの楽音要素エンベロープを制御することで、楽音要素の自然な変化を模倣した制御が或る程度は可能である。しかし、従来技術のようにピッチや振幅の楽音要素の時間的変動そのもののエンベロープを抽出し、制御するだけでは、演奏音における表情や人間らしさの度合いを調整することは困難であった。例えば、ピッチや振幅の変動において異なる特性又は癖を示す複数の波形データを使用してユニゾン音や和音をポリフォニック合成した場合に、合成される各音間のピッチが大きくずれて音痴に聞こえてしまったり、各音の振幅の表情がばらばらになってしまうことが起こる。このような場合、従来の技術では、それらの不都合を除去するように有効に調整することはできなかった。例えば、ピッチや振幅の変動において存在する特性又は癖を除去してフラットな特性に変換して、これらのフラットな特性の波形データをポリフォニック合成することが考えられるが、そうすると合成音が単調なものとなってしまい、アコースティック楽器音らしさが失われてしまう、という問題が生じる。
本発明は上述の点に鑑みてなされたもので、サンプリングした波形データに含まれる振幅やピッチなどの楽音要素を高品質に制御することを可能にする楽音データ生成方法及び装置並びに楽音合成方法及び装置を提供しようとするものである。更には、それらに関連するコンピュータプログラム及び該プログラムを記憶した記憶媒体、さらには、楽音合成用データの新規なデータ構造ならびに該新規なデータ構造の楽音合成用データを記憶した記憶媒体、を提供しようとするものである。
上記課題の解決のために、本発明者は、演奏者による楽器の生演奏によって得られた波形データ中の振幅やピッチなどの楽音要素の時変動特性には、演奏者が意図した若しくは制御可能な変動成分と、演奏者が意図しない若しくは制御できない変動成分とが有ることに着目し、少なくとも1つの時系列的な成分を抽出し、これを調整・制御することで、有効かつ高品質な制御が行なえる、という発想を想起した。
そこで、本発明に係る楽音データ生成方法は、オリジナル波形データにおける少なくとも1つの特定の楽音要素に関して離散的な変動値列を取得する第1のステップと、前記変動値列から、時定数的な因子に従い、少なくとも1つの時系列的な成分値列を抽出する第2のステップとを具備し、前記第2のステップで抽出される前記成分値列を少なくとも用いて前記特定の楽音要素の前記変動値列を表現することを特徴とする。
本発明は、演奏者が意図した若しくは制御可能な変動成分は、時定数的な因子を持つとの認識に立つことで、前記変動値列から、時定数的な因子に従い、少なくとも1つの時系列的な成分値列を抽出することを特徴とする。これにより、例えば、演奏者が意図した若しくは制御可能な変動成分と、演奏者が意図しない若しくは制御できない変動成分とを、算術的若しくは計量的に分析しうるようになる。前記変動値列から時定数的な因子に従い少なくとも1つの時系列的な成分値列を抽出することは、一実施例として、時定数的な因子に依存して、変動値列を2つの時系列的な成分値列に分離抽出することからなる。例えば、前記変動値列から時定数の相対的に大きな変動成分を抽出し、第1の成分値列として生成し、前記変動値列から時定数の相対的に小さな変動成分を抽出し、第2の成分値列として生成するようにしてよい。時定数の相対的に大きな変動成分の抽出は、典型的には、適宜の平滑化関数による処理又はローパスフィルタ処理等によって適宜行なえる。本明細書ではこれらの処理を総称して「平滑化」ということにする。時定数の相対的に大きな変動成分を抽出することにより、演奏者が意図した若しくは制御可能な変動成分の抽出を行なうことができる。以下説明する実施例では、このような時定数の相対的に大きな変動成分すなわち演奏者が意図した若しくは制御可能な変動成分を、「うねり」ということにする。一実施例において、変動値列を平滑化することに基づき生成される第1の成分値列とは、「うねり」値列である。一方、時定数の相対的に小さな変動成分とは、演奏者が意図しない若しくは制御できない変動成分に対応付けることができ、これは、一例として、変動値列に対する第1の成分値列すなわち「うねり」値列の残差として算術的に生成することができる。以下説明する実施例では、このような時定数の相対的に小さな変動成分すなわち演奏者が意図しない若しくは制御できない変動成分を、「ゆらぎ」ということにする。すなわち、一実施例において、変動値列と第1の成分値列(「うねり」値列)との差分に基づき生成される第2の成分値列とは、「ゆらぎ」値列である。
このように、本発明の実施例によれば、特定の楽音要素(例えば振幅あるいはピッチ)の変動値列を、時定数的特性の異なる少なくとも第1及び第2の成分値列(「うねり」値列と「ゆらぎ」値列)に分離して表現することができる。これにより、これらを使用して楽音波形合成を行なうに際して、第1の成分値列(「うねり」値列)と第2の成分値列(「ゆらぎ」値列)とを独立に可変調整・制御することができるようになり、高品質な制御が行なえる。例えば、ピッチや振幅の変動において異なる特性又は癖を示す複数の波形データを使用してユニゾン音や和音をポリフォニック合成するような場合に、演奏者が意図した若しくは制御可能な変動成分に相当する第1の成分値列(「うねり」値列)の方を適宜可変調整し、演奏者が意図しない若しくは制御できない変動成分に相当する第2の成分値列(「ゆらぎ」値列)はあまり又はほとんど可変制御しないようにすることで、バランスのとれた調整を適切かつ容易に行なうことができるようになる。すなわち、本発明の実施例によれば、複音合成の際にそれぞれの楽音の表情やゆらぎのばらつき度合いを可変制御することができる。さらには、複音合成に限らず、楽音合成一般において、本発明の実施例に従い「うねり」と「ゆらぎ」として分離抽出された変動成分を独立に制御することにより、今までになかった楽音制御パラメータ、例えば、合成音の表情の度合いや、アコースティック楽器特有の人間的なゆらぎなど、を可変制御することができるようになる。
楽音合成の観点によると、本発明に係る楽音データ生成方法は、少なくとも1つの前記成分値列を、その値の大きさ及び時間軸の少なくとも一方について可変制御する第3のステップと、第3のステップで可変制御された前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第4のステップと、生成された変動値列を少なくとも用いて、前記第3のステップで可変制御された特徴を持つ前記特定の楽音要素を含む楽音データを生成する第5のステップとを更に具える。
更に本発明によれば、オリジナル波形データにおける特定の楽音要素の変動値列から時定数的な因子に従い抽出された少なくとも1つの成分値列を記憶した記憶手段を使用して、楽音を合成する方法が提供される。この楽音合成方法は、前記記憶手段から読み出す少なくとも1つの前記成分値列の時間軸を、任意の発音時間長に従い、伸張又は圧縮制御する第1ステップであって、これにより、該任意の発音時間長に見合った時間長を持つ前記成分値列を得るようにしたものと、前記記憶手段から読み出された又は前記第1ステップで時間軸が伸縮制御された少なくとも1つの前記成分値列の値を可変制御する第2ステップと、前記記憶手段から読み出された又は前記第1又は第2ステップで制御された少なくとも1つの前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第3ステップと、生成された変動値列と楽音要素に関する他のデータとを用いて、前記発音時間長にわたる楽音を合成する第4ステップとを具備することを特徴とする。
本発明は、上述のような方法の発明として実施できるのみならず、上述と同様の特徴を持つ装置の発明としても実施できる。さらには、上述と同様の特徴を持つ手順からなるコンピュータプログラムとしても実施でき、また、該プログラムを記憶した記憶媒体としても実施でき、さらには上述のような第1及び第2の成分値列(「うねり」値列と「ゆらぎ」値列)という新規なデータ構造からなる楽音合成用データを記憶したコンピュータ読み取り可能な記憶媒体としても実施できる。
以下、添付図面を参照してこの発明の実施の形態を詳細に説明しよう。
[データ作成処理]
まず、オリジナル波形データに基づき、特定の楽音要素についての「うねり」値列と「ゆらぎ」値列とを生成する、本発明に係る波形データ生成方法及び装置及びプログラムの実施例(総称して「データ作成処理」ということにする)につき説明する。
図1は、本実施例に係るデータ作成処理のために使用するコンピュータの構成例を示す。図示の構成は単なる例示であり、通常知られた適宜の構成のコンピュータを使用してよい。図示例において、コンピュータは、周知のように、CPU(中央処理部)1、ROM(リードオンリーメモリ)2、RAM(ランダムアクセスメモリ)3、キーボードやマウスなどの入力操作装置4、表示器5、ハードディスク6、CD(コンパクトディスク)及びFD(フレキシブルディスク)などの着脱式記憶媒体のためのメモリインタフェース7、外部とデータの授受を行なうための通信インタフェース8、波形データを入力するための波形入力インタフェース9、A/D変換器10などを備えている。
図2は、本実施例に係るデータ作成処理の処理手順の一例を示すフロー図であり、この処理プログラムは、CD(コンパクトディスク)やその他の記憶媒体に記憶されていて、図1のコンピュータ内にインストールされ、CPU1によって実行される。
図2は大別して2つのステップS1,S2からなる。第1のステップS1は、オリジナル波形データにおける少なくとも1つの特定の楽音要素に関して離散的な変動値列を取得するものであり、このステップS1は、公知の如何なる手順を使用してもよい。好適な一例を例示すると、次の通りである。
ステップS11は、分析すべきオリジナル波形データを取得するステップである。その詳細は、例えば、図1において、生演奏音をマクロフォン12でピックアップし、これをA/D変換器10でデジタル波形データ(PCM波形データ)に変換し、インタフェース9及びコンピュータバス11を介してコンピュータ内の適宜のメモリ(RAM3又はハードディスク6など)に保存する。図3(c)は、分析すべきオリジナル波形データの一例を示す。
次のステップS12では、該オリジナル波形データを時系列的に複数の区間に分割し、分割した各区間毎に、振幅又はピッチのような各種の楽音要素の少なくとも特定の1種につき代表値を求め、適宜定めた基準値に対する各区間毎の代表値のずれを変動値として求め、当該特定の楽音要素に関する各区間毎の変動値の時系列からなる、離散的な変動値列を生成する。本実施例では、ピッチ及び振幅についての変動値列をそれぞれ生成するものとする。一例として、公知の波形周期分析/判別技術を用いて、オリジナル波形データの波形を1周期毎に判別し、判別した1周期波形を1区間として、該1周期波形(1区間)内の各サンプル振幅の実効値(パワー値)の平均値を算出してこの平均振幅値を当該区間の振幅の代表値とし、また、該1周期波形(1区間)の時間長の逆数を周波数(楽音ピッチ)として算出し、これを当該区間のピッチの代表値とすればよい。あるいは、別の例として、判別した所定複数周期波形を1区間として、該複数周期波形(1区間)における各サンプル振幅の実効値(パワー値)の平均値を算出してこの平均振幅値を当該区間の振幅の代表値とし、また、該複数周期波形(1区間)における各周期毎の時間長の逆数を周波数(楽音ピッチ)としてそれぞれ算出し、この平均値を算出し、この平均ピッチを当該区間のピッチの代表値とすればよい。なお、基準値は、各区間毎の代表値の変動の略中間値(例えば複数区間の平均値)などに適宜定めればよい。また、各区間毎の代表値のずれを変動値として取り出す手法は、基準値Ra又はRpに対する各区間毎の代表値の差を変動値として算出してもよいし、あるいは基準値に対する各区間の代表値の比を変動値として算出してもよい。あるいは、各区間毎の代表値そのものを変動値として用いてもよい。
生成されたピッチ及び振幅についての変動値列は、コンピュータ内の適宜のメモリ(RAM3又はハードディスク6など)に一時保存される。図3(a)における黒ドットは、図3(c)のオリジナル波形データに基づき生成された振幅変動値列の一例を示し、図3(b)における黒ドットは同オリジナル波形データに基づき生成されたピッチ変動値列の一例を示す。図3(a),(b)におけるラインRa,Rpは、振幅基準値Ra及びピッチ基準値Rpを示す。各変動値は、振幅基準値Raあるいはピッチ基準値Rpを基準にした相対値で表現されるものとしてもよい。なお、振幅基準値Ra又はピッチ基準値Rpは一定値でもよいが、任意に変化させてもよい。なお、本発明で問題にしている「うねり」や「ゆらぎ」は、音が比較的安定して持続する部分に現われる特徴であるから、概して、オリジナル波形データにおける持続音部分を対象にして上記の分析を行なえばよい。なお、分析区間は、上記のように1又は複数の波形周期に同期している必要はなく、適宜の固定的時間長又は可変時間長からなるフレーム区間であってもよい。
上記第1のステップS1の変形例として、オリジナル波形データをコンピュータに付属するマイクロフォン12でピックアップする手法で取得するのではなく、通信インタフェース8を介して外部から取り込んだり、メモリインタフェース7を介して着脱式記憶媒体13から取り込むようにしてもよい。更に、別の変形として、他の図示しない波形分析装置あるいはコンピュータ等を用いて既に作成されたピッチ及び振幅についての変動値列データを、通信インタフェース8を介して外部から取り込んだり、メモリインタフェース7を介して着脱式記憶媒体13から取り込むことで、これらの変動値列を取得するようにしてもよい。
次に、第2のステップS2では、上記のように第1のステップS1で取得した各変動値列を、時定数的な因子に従い、それぞれ、少なくとも2つの時系列的な成分値列に分離する。本実施例では、第1の成分値列として、時定数の相対的に大きな変動成分(すなわち演奏者が意図した若しくは制御可能な変動成分)に相当する「うねり」値列を生成し、第2の成分値列として、時定数の相対的に小さな変動成分(すなわち演奏者が意図しない若しくは制御できない変動成分)に相当する「ゆらぎ」値列を生成する。
詳しくは、ステップS21では、変動値列を平滑化処理することで、時定数の相対的に大きな変動成分を抽出し、これを「うねり」値列(第1の成分値列)として生成する。時定数の相対的に大きな変動成分を抽出するとは、換言すれば、変動値列における細かな変化に追従しないようにし、滑らかな変動成分を抽出することである。平滑化処理の具体的手法は、ローパスフィルタ演算を施す手法、あるいは、移動メディアン(中央値)法、各種(単純、加重、指数平滑等)の移動平均法、移動モード法、ガウシアンフィルタを用いる手法、ディスプレイ表示又はプリントアウトされた変動列のプロット画像を指でなぞって平滑化プロットを手動描画作成する手法など、如何なる手法を用いてもよく、また、1手法のみに依らずに複数の手法を組み合わせて使用してもよい。生成されたピッチ及び振幅についての「うねり」値列(第1の成分値列)は、コンピュータ内の適宜のメモリ(RAM3又はハードディスク6など)に保存される。図3(a)における白ドットは同図中で黒ドットで示された振幅変動値列を平滑化することで得られた「うねり」値列(第1の成分値列)の一例を示し、図3(b)における白ドットは同図中で黒ドットで示されたピッチ変動値列を平滑化することで得られた「うねり」値列(第1の成分値列)の一例を示す。
次のステップS22では、第1のステップS1で取得したピッチ及び振幅についての変動値列の各々と、それぞれに対応して上記ステップS21で生成された「うねり」値列(第1の成分値列)との差分をそれぞれ各区間毎に演算し、その結果得られる各差分値列を、時定数の相対的に小さな変動成分に相当する、「ゆらぎ」値列(第2の成分値列)として生成する。生成されたピッチ及び振幅についての「ゆらぎ」値列(第2の成分値列)は、コンピュータ内の適宜のメモリ(RAM3又はハードディスク6など)に保存される。図3(a)における各区間毎の白ドットと黒ドットとの差分値が振幅についての「ゆらぎ」値を示し、図3(b)における各区間毎の白ドットと黒ドットとの差分値がピッチについての「ゆらぎ」値を示す。
なお、変動値列における時定数の相対的に小さな変動成分に相当する、「ゆらぎ」値列(第2の成分値列)の生成の仕方は、上記のような差分演算によるものに限らず、他の適宜の手法を用いてもよい。
また、第2のステップS2においては、変動値列を上記のように「うねり」と「ゆらぎ」に対応する2つの成分値列に少なくとも分離すればよいが、本発明の実施にあたって、必要に応じて、更に余分の適宜の成分値列を変動値列から分離生成するようにしてもよい。また、もちろん、「うねり」若しくは「ゆらぎ」の一方の成分値列のみを生成し、メモリに保存するようにしてもよい。
なお、通常知られているように、サンプリングした波形データの楽音要素は大きく分けると、波形(音色要素波形)、振幅、ピッチを含み、それらは、別個の分析データとして分離して記憶するようにすることができ、そして、楽音再生時においては、それらの楽音要素を用いて波形(音色要素波形)、振幅、ピッチの3要素が一体化された楽音が合成される。その場合、分析データにおける振幅及びピッチの変動値列における各変動値は、分析データにおける音色要素波形の持つ基準値Ra,Rpを基準にした相対値で表現される。そして、楽音合成時においては、振幅基準値Raはベロシティ等の音量制御データで可変設定でき、この可変設定される振幅基準値Raに対して上記振幅変動値列に応じた振幅の時変動制御が施される。また、ピッチ基準値Rpは発生楽音の指定音高等の楽音ピッチ指定データで可変設定でき、この可変設定されるピッチ基準値Rpに対して上記ピッチ変動値列に応じたピッチの時変動制御が施される。
[楽音合成処理=「うねり」と「ゆらぎ」の制御]
次に、上記のように生成された各楽音要素(振幅及びピッチ)に対応する「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを用いて楽音合成を行う実施例につき説明する。この楽音合成処理は、鍵盤等の演奏操作手段による演奏に応じてあるいは自動演奏の実行に伴ってリアルタイムに行うようにしてもよいし、あるいは、予め用意された演奏データに基づき非リアルタイムに行うようにしてもよい。
この楽音合成処理のためには、一例として、図1に示したような構成のコンピュータをハードウェアとして使用し、図4に示すようなうねり及びゆらぎ制御/楽音合成プログラムを該コンピュータ内にインストールして、CPU1によって該プログラムを実行する。そのために、種々のタイプの楽音及び又は奏法について上述のようにして作成された各楽音要素(振幅及びピッチ)に対応する「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを含むデータ構造からなる楽音合成用データのデータベースが適宜の記憶装置(例えばハードディスク6)内に構成されている。このデータベースに記憶された各楽音及び又は奏法に対応する波形データは、1つの楽音及び又は奏法につき、上述のように少なくとも波形(音色要素波形)、振幅、ピッチの3つの楽音要素にそれぞれ対応する時系列的なデータ(分析データ若しくは楽音合成用データ)を含む。ここで、振幅及びピッチに関する時系列的なデータ(分析データ若しくは楽音合成用データ)とは、上述の通り、振幅及びピッチにそれぞれ対応する「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを含む。波形(音色要素波形)に関する時系列的なデータとは、例えば、図3(c)に示すような各区間ごとの波形(音色要素波形)をPCMあるいはDPCM等の適当なデータ形式でそれぞれ表した波形サンプルデータであってもよいが、公知のように、記憶すべき波形サンプルデータ量を圧縮するために、複数区間につき1つの代表的な波形サンプルデータを記憶しておくようにしてもよい。その場合は、再生時における代表的波形サンプルデータの繰り返し読出し又は波形補間処理等によって、時変動する高品質な波形(音色要素波形)を再生することができる。なお、図1のコンピュータにおいては、楽音波形合成又は発生を行うために楽音合成部14及びスピーカ15等の必要なハードウエア資源及びソフトウェア資源が設けられている。公知のように、楽音合成部14は、ハードウェア音源装置によって構成してもよいし、ソフトウェア音源によって構成してもよい。
鍵盤等の演奏操作手段による演奏に応じてあるいは自動演奏の実行に伴って発音すべきタイミングでリアルタイムに、あるいは、発音すべきタイミングに先行して非リアルタイムに、発生すべき楽音の音色又は奏法及びピッチ等が指定されると、当該発生すべき楽音のための楽音合成処理が開始される。公知のように、典型的には、1つの楽音を発生する場合、まず、アタック部の楽音を合成し、次に持続部の楽音を合成し、そしてレリース部又は減衰部の楽音を合成することで、それらの部分が順次連続した楽音波形を合成することができる。本実施例に関連するうねり及びゆらぎ制御/合成は楽音の持続部に関して実施されるものとしているので、アタック部及びレリース部等については説明は省略する。持続部の楽音を合成するとき、指定された楽音音色又は奏法に対応する音色要素波形データと、振幅の「うねり」値列(第1の成分値列)及び「ゆらぎ」値列(第2の成分値列)と、ピッチの「うねり」値列(第1の成分値列)及び「ゆらぎ」値列(第2の成分値列)とが、上記データベースから時系列順に夫々読み出される。そのとき、図4に示すようなうねり及びゆらぎ制御/楽音合成プログラムに従って、振幅及びピッチの変動値列が夫々生成され、生成されたピッチ変動値列に従う時変動可能なピッチで読み出した音色要素波形データのピッチが決定され、かつ生成された振幅変動値列に従う時変動可能な振幅制御が該波形データに施され、こうして、時変動可能な複数の楽音要素(波形、ピッチ、振幅)に基づき楽音波形が合成される。次に、図4の処理について詳しく説明する。なお、本発明は、持続部楽音の合成のみに限られるものではなく、適宜の部分の楽音合成に際して応用することができるのは勿論である。
図4において、ステップS3では、上記データベースから読み出す振幅及びピッチの「うねり」値列(第1の成分値列)及び「ゆらぎ」値列(第2の成分値列)の時間軸を、所望の持続発音時間長に従い、それぞれ独立に伸張又は圧縮する制御を行う。非リアルタイム合成や自動演奏の場合は、用意された演奏データから持続発音時間長が判るので、それを用いればよい。演奏者の演奏に応じたリアルタイム合成の場合は、持続発音時間長として適宜の予測値を用い、楽音合成の進行に伴って予測発音時間長を逐次修正していくような手法をとればよい。すなわち、合成波形周期又は区間の時刻管理を適切に行いながら、「うねり」値列(第1の成分値列)及び「ゆらぎ」値列(第2の成分値列)の生成を行うようにすればよい。なお、上記データベースから読み出す音色要素波形の時系列データに対しても、同様の時間軸伸縮制御が施される。図5は、そのような時間軸伸縮制御の一例を模式的に示したものである。図5(a)は、データベースに記憶されている音色要素波形Wの時系列データと、振幅A(又はピッチ)の「うねり」値列(第1の成分値列)あるいは「ゆらぎ」値列(第2の成分値列)とをイラスト的に示している。図5(b)はこれらの時間軸を圧縮した例をイラスト的に示している。なお、データの補間合成や繰り返し(ループ)あるいは飛び越し(間引き)などの種々の公知の技術を駆使して時間軸の伸縮が行われるが、このような時間軸の伸縮技術の詳細は例えば特開平10−307586号公報やその他で公知であるから、ここでは特に詳しく説明しない。なお、「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)に対して、それぞれ独立にその時間軸の伸縮制御を行うことができる。
ステップS4では、上記のように所望の持続発音時間長に従って時間軸が伸縮制御された振幅及びピッチの「うねり」値列(第1の成分値列)及び「ゆらぎ」値列(第2の成分値列)に対して、それぞれ独立に、その値の大きさを可変調整・制御する。各値の調整は、それぞれ適宜の倍率を掛ける(重み付けする)ことで行うようにしてよいし、加算又は減算によって行うようにしてもよい。図5(b)におけるA’は、振幅A(又はピッチ)の「うねり」値列(第1の成分値列)あるいは「ゆらぎ」値列(第2の成分値列)を一定の倍率係数(重み付け係数)で重み付け制御することによって得られた変更後の「うねり」値列(第1の成分値列)あるいは「ゆらぎ」値列(第2の成分値列)を例示する。もちろん、倍率係数(重み付け係数)は、この持続発音時間中に一定値を維持するものに限らず、時間的に適宜変化されるようにしてもよい。この倍率係数(重み付け係数)のような制御データ又はパラメータ類は、操作者による調整用操作子の操作に応じて発生されるようになっていてもよいし、あるいは、適宜のメモリあるいはデータ発生器から操作者による選択に応じて又は奏法等に応じて自動的に発生されるようになっていてもよいし、あるいは、コンピュータで実行する何らかのアプリケーションプログラムの実行過程で自動的に発生されるようになっていてもよい。
なお、演奏者が意図しない若しくは制御できない変動成分に相当する「ゆらぎ」値列(第2の成分値列)に対しては、このステップS4において、あまり、読み出された値から大きく変化させないようにするか、若しくは全く変化させないようにした方が好ましいと思われる。しかし、そのような制御に限定されるわけではない。なお、ステップS4では、すべてを可変制御する必要はなく、少なくとも1つの楽音要素(振幅又はピッチ)の「うねり」値列(第1の成分値列)又は「ゆらぎ」値列(第2の成分値列)のうちの少なくとも1つを可変制御する構成であってもよい。
ステップS5では、上記ステップS4で可変制御された振幅の「うねり」値列(第1の成分値列)に「ゆらぎ」値列(第2の成分値列)を加算することで、振幅の変動値列を生成し、また、上記ステップS4で可変制御されたピッチの「うねり」値列(第1の成分値列)に「ゆらぎ」値列(第2の成分値列)を加算することで、ピッチの変動値列を生成する。勿論、この場合に行う演算のタイプは、加算に限らず、変動値列のデータ表現形式がリニアかデシベルかなど設計上の事情に応じて加減乗除のうち任意のものであってさしつかえない。要は、分離された状態で可変制御された特定の楽音要素(例えば振幅又はピッチ)についての「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを合成することで、該特定の楽音要素(例えば振幅又はピッチ)についての変動値列を生成(再現)するようにすればよい。
ステップS6では、発生しようとする楽音の基準的ピッチを可変設定するピッチ基準値Rpに対して上記のように可変制御されて生成されたピッチ変動値列を加算(又は乗算等の設計上定まる演算)することで時系列的に変化するピッチ設定情報を生成し、このピッチ設定情報に従って、発生しようとする楽音の音色又は奏法に応じた音色要素波形データを読み出し、かつ、発生しようとする楽音の基準的音量を可変設定する振幅基準値Raに対して上記のように可変制御されて生成された振幅変動値列を加算(又は乗算等の設計上定まる演算)することで時系列的に変化する音量振幅設定情報を生成し、この音量振幅設定情報に従って、上記所望ピッチで読み出す波形データの音量振幅を設定し、こうして、時変動可能に制御された複数の楽音要素(波形、ピッチ、振幅等)に基づく楽音波形合成が行われる。上述のように、楽音波形合成(波形発生)にあたって、「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを独立に可変制御することができるので、高品質な制御を実現することができ、しかも、容易に制御できる。なお、上述の例では、「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)の両方を楽音合成に用いる例を示したが、これに限らず、いずれか一方の成分値列を楽音合成に用いるようにしてもよい。
本発明を実施する装置は、パソコン等の汎用コンピュータに限らず、電子楽器や自動演奏シーケンサなど、音楽演奏専用機器あるいは楽音合成専用機器等であってもよい。図6は、本実施例に従う楽音合成処理機能を具えた電子楽器の一構成例を示すブロック図である。この電子楽器においては、楽音データベースとして記憶装置21が設けられており、この記憶装置21には外部の(又はこの電子楽器に付属する)データ作成装置20によって作成された楽音合成用データが記憶される。すなわち、データ作成装置20は、図1及び図2を参照して前述したような本発明に係る楽音データ生成処理を実行し、種々のタイプの楽音及び又は奏法について上述のようにして作成された各楽音要素(振幅及びピッチ)に対応する「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを含むデータ構造からなる楽音合成用データがデータベースとして記憶装置21に記憶される。
図6において、鍵盤回路50は、演奏を行うための鍵を複数有する。検出回路51は、鍵盤回路50の鍵の押鍵を示すノートオン信号、離鍵を示すノートオフ信号、音高情報を示すキーコード信号および押鍵速度を示すベロシティを検出して、楽音制御データ供給回路57に供給する。検出回路52は、鍵盤回路50の鍵の押鍵圧力を示すアフタタッチ信号を検出して、楽音制御データ供給回路57に供給する。
パネルスイッチ55は、マニュアル操作で音量調整、音色選択または種々の効果付与、変調等を行うための指示を与えるスイッチや、各種楽音要素を可変調整・制御するための操作子等を有する。スイッチ検出回路56は、パネルスイッチ55上のスイッチや操作子の操作状態を検出し、楽音制御データ供給回路57に出力する。パネルスイッチ55内の音色選択スイッチあるいは奏法選択スイッチにより所望の音色あるいは奏法を選択することができる。所望の音色あるいは奏法が選択されると、楽音制御データ供給回路57は、該選択に応じた制御データを波形発生回路62、ディジタルフィルタ63、ピッチ用うねり/ゆらぎ生成回路58、フィルタ係数EG59、振幅用うねり/ゆらぎ生成回路60に供給する。また、振幅やピッチを可変調整するための操作子が操作されると、それに応じた調整/制御データをピッチ用うねり/ゆらぎ生成回路58あるいは振幅用うねり/ゆらぎ生成回路60に供給する。
楽音制御データ供給回路57は、また検出回路51,52より検出されたキーイベントおよびスイッチ検出回路56より検出されたスイッチ状態を受けて、所要の信号をドライバ54に出力する。ドライバ54は、入力された信号に応じて選択された音色あるいは奏法等を表示器53に表示する。表示器53は、例えば液晶表示器等である。
楽音制御データ供給回路57は、鍵盤回路50から検出されたキーイベントに応じて、割り当てられた所定の発音チャンネルに対応する音源部68に楽音制御データを供給する。もし、時分割発音チャンネルが16チャンネル備えられているとすれば、16の音源部の内の所定のチャンネルの音源部68に楽音制御データを供給する。すなわち、音源部68の各構成要素は16チャンネル時分割動作により、16の独立した楽音を時分割で生成し、アキュムレータ65に出力している。
ピッチ用うねり/ゆらぎ生成回路58は、楽音制御データ供給回路57から与えられた音色又は奏法の選択データ及びピッチに応じて、記憶装置21から、当該選択された音色又は奏法についての上記ピッチについての「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを取得し、図5のステップS3〜S5で説明したのと同様の処理を行い、当該選択された音色又は奏法についてのピッチの変動値列を生成する。この生成されたピッチの変動値列は、加算器61に与えられる。一方、楽音制御データ供給回路57は、検出回路51にて検出された演奏鍵のキーコード信号に対応するピッチデータを加算器61に供給する。このピッチデータは、前述のピッチ基準値Rpに相当する。こうして、加算器61において、発生しようとする楽音の基準的ピッチであるピッチ基準値Rpに対して上記のように可変制御されて生成されたピッチ変動値列を加算することで時系列的に変化するピッチ設定情報を生成し、これを波形発生回路62に供給する。例えば、ピッチデータ(ピッチ基準値Rp)が周波数の対数を表すセントスケールで表されているとすると、ピッチ変動値列と加算されることにより楽音ピッチの対数信号を形成する。周波数の対数が聴感上はリニアとなるため、ピッチデータと係数の加算による変調は、自然なピッチ変調を与えるのに便宜である。しかし、これに限らず、ピッチデータ(ピッチ基準値Rp)はリニア表現であってもよい。なお、このほか、例えば楽音の立上がりにおけるアタックピッチの揺れや周波数の揺れを模擬するエンベロープを生成する回路を更に設け、これによって、楽音立上り時のアタックピッチ変調効果を付加した波形を生成するようにしてもよいが、詳細は省略する。
波形発生回路62は、ノートオン信号またはノートオフ信号により、波形生成の開始と終了を制御され、楽音制御データ供給回路57から供給される波形指定信号に応じた形状の波形を生成し、ディジタルフィルタ63に供給する。すなわち、波形発生回路62は、楽音制御データ供給回路57から与えられた音色又は奏法の選択データに応じて、記憶装置21から、当該選択された音色又は奏法についての音色要素波形を取得し、これを加算器61から与えられるピッチ設定情報に応じたピッチで読出し生成すると共に、この音色要素波形を時間的に切り替えつつ補間合成等を行う。なお、波形発生回路62における音源方式は、このような波形メモリ音源方式に限らず、FM音源、AM音源、高調波合成音源または物理モデル音源等、任意の音源方式により構成してもよい。すなわち、どのような音源方式を用いようとも、ピッチや振幅などの少なくとも1つの楽音要素の変動値列を「うねり」値列と「ゆらぎ」値列とに分離して制御するようにした本発明の利点を享受することができる。
ディジタルフィルタ63は、楽音制御データ供給回路57およびフィルタ係数EG59から供給されるフィルタ係数等の制御データに応じて例えばカットオフ周波数を変化させ、音色制御を行う。例えば、楽音の立上がりにおいては、カットオフ周波数を上げてきらびやか音色として、時間の経過とともにカットオフ周波数を下げて落ち着いた音色に変化させることもできる。
ディジタルフィルタ63から出力された信号は、エンベロープ乗算回路64に供給され、振幅用うねり/ゆらぎ生成回路60にて生成された持続部用振幅制御エンベロープ波形との乗算が行われ、発生する楽音波形の音量振幅を制御する。なお、この回路60では、振幅用うねり/ゆらぎ生成に限らず、アタック部やリリース部用の音量振幅制御エンベロープ波形も生成するが、その詳細説明は省略する。振幅用うねり/ゆらぎ生成回路60は、楽音制御データ供給回路57から与えられた音色又は奏法の選択データに応じて、記憶装置21から、当該選択された音色又は奏法についての各発音ノート毎の強さに合わせて「うねり」値列(第1の成分値列)と「ゆらぎ」値列(第2の成分値列)とを取得し、図5のステップS3〜S5で説明したのと同様の処理を行い、当該選択された音色又は奏法についての振幅の変動値列を生成する。この生成された振幅の変動値列を振幅基準値Raと加算又は乗算することで、持続部用振幅制御エンベロープ波形を生成し、エンベロープ乗算回路64に供給する。
エンベロープ乗算回路64から出力された楽音信号は、音源部68の出力信号となり、発音チャンネルの数だけの楽音信号が時分割でアキュムレータ65に供給される。アキュムレータ65は、供給された各発音チャンネルの楽音信号を合成して、D/A変換器66に供給する。D/A変換器66に供給された楽音信号は、ディジタル信号からアナログ信号に変換され、サウンドシステム67において発音される。
なお、演奏中にリアルタイムでパネルスイッチ55において、各回路58,59,60に対する制御データ又はパラメータをマニュアルで入力することができる。また、エディットモードにおいて、楽音発生に対して非リアルタイムに、パネルスイッチ55内のパラメータスイッチや操作子を操作することにより、各回路58,59,60に対する制御データ又はパラメータを可変設定・調整することもできる。また、選択・制御・調整用の操作手段としては、パネルスイッチ55に限らず、マウスやテンキー、アルファニューメリックキーボード、演奏用又は各種操作用のタッチパッドなど、適宜の操作手段を用いてよい。
本実施例に係るデータ作成処理のために使用するコンピュータの構成例を示すブロック図。 本実施例に係るデータ作成処理の処理手順の一例を示すフロー図。 本実施例における波形データの分析例を示す波形図。 本実施例におけるうねり及びゆらぎ制御/楽音合成プログラムの一例を示すフロー図。 図4のうねり及びゆらぎ制御/楽音合成プログラムに従ううねり値列及びゆらぎ列の時間軸伸縮制御例とうねり値の倍率調整例をイラスト的に示す波形図。 本実施例に従う楽音合成処理機能を具えた電子楽器の一構成例を示すブロック図。
符号の説明
1 CPU(中央処理部)
2 ROM(リードオンリーメモリ)
3 RAM(ランダムアクセスメモリ)
4 入力操作装置
5 表示器
6 ハードディスク
20 データ作成装置
21 記憶装置
58 ピッチ用うねり/ゆらぎ生成回路
60 振幅用うねり/ゆらぎ生成回路

Claims (14)

  1. オリジナル波形データにおける少なくとも1つの特定の楽音要素に関して離散的な変動値列を取得する第1のステップと、
    前記変動値列から、時定数的な因子に従い、少なくとも1つの時系列的な成分値列を抽出する第2のステップと
    を具備し、前記第2のステップで抽出される前記成分値列を少なくとも用いて前記特定の楽音要素の前記変動値列を表現することを特徴とする楽音データ生成方法。
  2. 前記第2のステップは、前記変動値列から、時定数的特性の異なる少なくとも第1及び第2の成分値列を分離抽出し、該第1及び第2の成分値列の組み合わせで、前記特定の楽音要素の前記変動値列を表現することを特徴とする請求項1に記載の楽音データ生成方法。
  3. 前記第2のステップは、前記変動値列を平滑化することに基づき前記第1の成分値列を生成し、前記変動値列と該第1の成分値列との差分に基づき前記第2の成分値列を生成する請求項2に記載の楽音データ生成方法。
  4. 少なくとも1つの前記成分値列を、その値の大きさ及び時間軸の少なくとも一方について可変制御する第3のステップと、
    第3のステップで可変制御された前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第4のステップと、
    生成された変動値列を少なくとも用いて、前記第3のステップで可変制御された特徴を持つ前記特定の楽音要素を含む楽音データを生成する第5のステップと
    を更に具えた請求項1乃至3のいずれかに記載の楽音データ生成方法。
  5. オリジナル波形データにおける特定の楽音要素の変動値列から時定数的な因子に従い抽出された少なくとも1つの成分値列を記憶した記憶手段を使用して、楽音を合成する方法であって、
    前記記憶手段から読み出す少なくとも1つの前記成分値列の時間軸を、任意の発音時間長に従い、伸張又は圧縮制御する第1ステップであって、これにより、該任意の発音時間長に見合った時間長を持つ前記成分値列を得るようにしたものと、
    前記記憶手段から読み出された又は前記第1ステップで時間軸が伸縮制御された少なくとも1つの前記成分値列の値を可変制御する第2ステップと、
    前記記憶手段から読み出された又は前記第1又は第2ステップで制御された少なくとも1つの前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第3ステップと、
    生成された変動値列と楽音要素に関する他のデータとを用いて、前記発音時間長にわたる楽音を合成する第4ステップと
    を具備することを特徴とする楽音合成方法。
  6. 前記記憶手段には、前記特定の楽音要素の変動値列から分離抽出された時定数特性の異なる少なくとも第1及び第2の成分値列を記憶してなり、
    前記第3ステップでは、前記記憶手段から読み出された又は前記第1又は第2ステップで制御された前記少なくとも第1及び第2の成分値列に基づき、前記特定の楽音要素の前記変動値列を生成することを特徴とする請求項5に記載の楽音合成方法。
  7. 前記第1の成分値列は、前記オリジナル波形データにおける特定の楽音要素の変動値列を平滑化することに基づき得られたものであり、前記第2の成分値列は、該変動値列と該第1の成分値列との差分に基づき得られたものであり、
    前記第3ステップは、可変制御された前記第1成分値列と第2の成分値列を演算することに基づき前記変動値列を生成することを特徴とする請求項6に記載の楽音合成方法。
  8. 前記第1ステップでは、前記少なくとも第1及び第2の成分値列のそれぞれにつき独立にその時間軸を伸縮制御し、前記第2ステップでは、前記少なくとも第1及び第2の成分値列のそれぞれにつき独立にその値を可変制御することを特徴とする請求項6又は7に記載の楽音合成方法。
  9. 前記成分値列は、前記変動値列におけるうねり変動成分に対応する成分値列と前記変動値列におけるゆらぎ変動成分に対応する成分値列の少なくとも一方である請求項1乃至8のいずれかに記載の方法。
  10. コンピュータに楽音データ生成手順を実行させるプログラムであって、この楽音データ生成手順は、
    オリジナル波形データにおける少なくとも1つの特定の楽音要素に関して離散的な変動値列を取得する第1のステップと、
    前記変動値列から、時定数的な因子に従い、少なくとも1つの時系列的な成分値列を抽出する第2のステップと
    を具備し、前記第2のステップで抽出される前記成分値列を少なくとも用いて前記特定の楽音要素の前記変動値列を表現することを特徴とする。
  11. オリジナル波形データにおける少なくとも1つの特定の楽音要素に関して離散的な変動値列を取得する第1の手段と、
    前記変動値列から、時定数的な因子に従い、少なくとも1つの時系列的な成分値列を抽出する第2の手段と
    を具備し、前記第2の手段で抽出される前記成分値列を少なくとも用いて前記特定の楽音要素の前記変動値列を表現することを特徴とする楽音データ生成装置。
  12. オリジナル波形データにおける特定の楽音要素の変動値列から時定数的な因子に従い抽出された少なくとも1つの成分値列を記憶した記憶手段を使用して、コンピュータに楽音合成手順を実行させるプログラムであって、この楽音合成手順は、
    前記記憶手段から読み出す少なくとも1つの前記成分値列の時間軸を、任意の発音時間長に従い、伸張又は圧縮制御する第1ステップであって、これにより、該任意の発音時間長に見合った時間長を持つ前記成分値列を得るようにしたものと、
    前記記憶手段から読み出された又は前記第1ステップで時間軸が伸縮制御された少なくとも1つの前記成分値列の値を可変制御する第2ステップと、
    前記記憶手段から読み出された又は前記第1又は第2ステップで制御された少なくとも1つの前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第3ステップと、
    生成された変動値列と楽音要素に関する他のデータとを用いて、前記発音時間長にわたる楽音を合成する第4ステップと
    を具備することを特徴とする。
  13. オリジナル波形データにおける特定の楽音要素の変動値列から時定数的な因子に従い抽出された少なくとも1つの成分値列を記憶した記憶手段を使用して、楽音を合成する装置であって、
    前記記憶手段から読み出す少なくとも1つの前記成分値列の時間軸を、任意の発音時間長に従い、伸張又は圧縮制御する第1手段であって、これにより、該任意の発音時間長に見合った時間長を持つ前記成分値列を得るようにしたものと、
    前記記憶手段から読み出された又は前記第1手段で時間軸が伸縮制御された少なくとも1つの前記成分値列の値を可変制御する第2手段と、
    前記記憶手段から読み出された又は前記第1又は第2手段で制御された少なくとも1つの前記成分値列に基づき、前記特定の楽音要素の前記変動値列を生成する第3手段と、
    生成された変動値列と楽音要素に関する他のデータとを用いて、前記発音時間長にわたる楽音を合成する第4手段と
    を具備することを特徴とする楽音合成装置。
  14. オリジナル波形データにおける各種の楽音要素の少なくとも特定の1種についての時系列的に離散的な変動値列を、少なくとも2つの時系列的な成分値列に分離したものである、少なくとも第1の成分値列及び第2の成分値列で構成されるデータ構造からなる楽音合成用データを記憶したコンピュータ読み取り可能な記憶媒体であって、
    前記第1の成分値列は、前記変動値列における時定数の相対的に大きな変動成分であるうねり変動成分値列からなり、
    前記第2の成分値列は、前記変動値列における時定数の相対的に小さな変動成分であるゆらぎ変動成分値列からなることを特徴とする。
JP2004303259A 2004-10-18 2004-10-18 楽音データ生成方法及び装置 Expired - Fee Related JP4218624B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004303259A JP4218624B2 (ja) 2004-10-18 2004-10-18 楽音データ生成方法及び装置
US11/248,583 US7626113B2 (en) 2004-10-18 2005-10-11 Tone data generation method and tone synthesis method, and apparatus therefor
CN200510113585.9A CN1763841B (zh) 2004-10-18 2005-10-17 乐音数据产生方法、乐音合成方法及其设备
EP05022583.8A EP1653442B1 (en) 2004-10-18 2005-10-17 Tone data generation method and tone synthesis method, and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004303259A JP4218624B2 (ja) 2004-10-18 2004-10-18 楽音データ生成方法及び装置

Publications (3)

Publication Number Publication Date
JP2006113487A true JP2006113487A (ja) 2006-04-27
JP2006113487A5 JP2006113487A5 (ja) 2008-08-14
JP4218624B2 JP4218624B2 (ja) 2009-02-04

Family

ID=35810840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004303259A Expired - Fee Related JP4218624B2 (ja) 2004-10-18 2004-10-18 楽音データ生成方法及び装置

Country Status (4)

Country Link
US (1) US7626113B2 (ja)
EP (1) EP1653442B1 (ja)
JP (1) JP4218624B2 (ja)
CN (1) CN1763841B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027983B2 (en) * 2001-12-31 2006-04-11 Nellymoser, Inc. System and method for generating an identification signal for electronic devices
JP2009063617A (ja) * 2007-09-04 2009-03-26 Roland Corp 楽音制御装置
CN101923860B (zh) * 2009-06-11 2012-07-04 英华达(南京)科技有限公司 音讯柔化系统、装置与方法
JP5967564B2 (ja) * 2010-04-17 2016-08-10 Nl技研株式会社 電子オルゴール
EP4010896A1 (en) * 2019-08-08 2022-06-15 Harmonix Music Systems, Inc. Authoring and rendering digital audio waveforms
JP7331588B2 (ja) 2019-09-26 2023-08-23 ヤマハ株式会社 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1215869A (en) 1983-02-02 1986-12-30 Alexander R. Strong Wavetable-modification instrument and method for generating musical sound
US5029509A (en) * 1989-05-10 1991-07-09 Board Of Trustees Of The Leland Stanford Junior University Musical synthesizer combining deterministic and stochastic waveforms
JP2712769B2 (ja) 1990-06-22 1998-02-16 日本電気株式会社 音声開発装置
IT1259260B (it) * 1992-03-31 1996-03-11 Generalmusic Spa Apparecchio digitale per la riproduzione del suono musicale dell'organo classico
JPH073046A (ja) * 1992-09-14 1995-01-06 Asahi Denka Kogyo Kk 止水シート
US5536902A (en) * 1993-04-14 1996-07-16 Yamaha Corporation Method of and apparatus for analyzing and synthesizing a sound by extracting and controlling a sound parameter
US5792971A (en) * 1995-09-29 1998-08-11 Opcode Systems, Inc. Method and system for editing digital audio information with music-like parameters
US5789689A (en) * 1997-01-17 1998-08-04 Doidic; Michel Tube modeling programmable digital guitar amplification system
EP0913808B1 (en) * 1997-10-31 2004-09-29 Yamaha Corporation Audio signal processor with pitch and effect control
DE60018626T2 (de) * 1999-01-29 2006-04-13 Yamaha Corp., Hamamatsu Vorrichtung und Verfahren zur Eingabe von Steuerungsdateien für Musikvorträge
JP2001063058A (ja) 1999-08-24 2001-03-13 Canon Inc 記録システム、記録装置、情報処理装置及びそれらの制御方法、コンピュータ可読メモリ
US6836761B1 (en) * 1999-10-21 2004-12-28 Yamaha Corporation Voice converter for assimilation by frame synthesis with temporal alignment
US6606388B1 (en) * 2000-02-17 2003-08-12 Arboretum Systems, Inc. Method and system for enhancing audio signals
JP3815347B2 (ja) * 2002-02-27 2006-08-30 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
US6911591B2 (en) * 2002-03-19 2005-06-28 Yamaha Corporation Rendition style determining and/or editing apparatus and method

Also Published As

Publication number Publication date
US20060081119A1 (en) 2006-04-20
EP1653442B1 (en) 2015-04-08
US7626113B2 (en) 2009-12-01
EP1653442A1 (en) 2006-05-03
JP4218624B2 (ja) 2009-02-04
CN1763841B (zh) 2011-01-26
CN1763841A (zh) 2006-04-26

Similar Documents

Publication Publication Date Title
US5703311A (en) Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
JPH08234771A (ja) カラオケ装置
JP4702160B2 (ja) 楽音合成装置及びプログラム
US20070000371A1 (en) Tone synthesis apparatus and method
EP1653442B1 (en) Tone data generation method and tone synthesis method, and apparatus therefor
JP4802857B2 (ja) 楽音合成装置及びプログラム
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP4407473B2 (ja) 奏法決定装置及びプログラム
JP2004078095A (ja) 奏法決定装置及びプログラム
JP2007093795A (ja) 楽音データ生成方法及び装置
JP4012410B2 (ja) 楽音生成装置および楽音生成方法
JP4816441B2 (ja) 楽音合成装置及びプログラム
JP4821558B2 (ja) 楽音合成装置及びプログラム
JP3804522B2 (ja) 波形圧縮方法及び波形生成方法
JP3613191B2 (ja) 波形生成方法及び装置
JP3885803B2 (ja) 演奏データ変換処理装置及び演奏データ変換処理プログラム
JP4826276B2 (ja) 楽音合成装置及びプログラム
JP3933161B2 (ja) 波形生成方法及び装置
JP3933162B2 (ja) 波形生成方法及び装置
JP3820817B2 (ja) 楽音信号発生装置
JP2001215971A (ja) 楽音信号発生装置及び楽音信号発生方法
JPH10307581A (ja) 波形データ圧縮装置および方法
JPH08234784A (ja) ハーモニー生成装置
JP2001022349A (ja) 曲データ加工方法
JP2005242064A (ja) 演奏データ変換処理装置及び演奏データ変換処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081103

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees