JP2007183442A - 楽音合成装置及びプログラム - Google Patents

楽音合成装置及びプログラム Download PDF

Info

Publication number
JP2007183442A
JP2007183442A JP2006001984A JP2006001984A JP2007183442A JP 2007183442 A JP2007183442 A JP 2007183442A JP 2006001984 A JP2006001984 A JP 2006001984A JP 2006001984 A JP2006001984 A JP 2006001984A JP 2007183442 A JP2007183442 A JP 2007183442A
Authority
JP
Japan
Prior art keywords
sound
waveform
performance
musical
connection section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006001984A
Other languages
English (en)
Other versions
JP4561636B2 (ja
Inventor
Eiji Akazawa
英治 赤沢
Yasuyuki Umeyama
康之 梅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006001984A priority Critical patent/JP4561636B2/ja
Priority to EP07000256A priority patent/EP1806733A1/en
Priority to US11/651,699 priority patent/US7557288B2/en
Priority to CN200710001248XA priority patent/CN101000761B/zh
Priority to CA2573434A priority patent/CA2573434C/en
Publication of JP2007183442A publication Critical patent/JP2007183442A/ja
Application granted granted Critical
Publication of JP4561636B2 publication Critical patent/JP4561636B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/008Means for controlling the transition from one tone waveform to another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/095Inter-note articulation aspects, e.g. legato or staccato
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】 接続区間において発音遅れを生じさせることなく楽音の合成を行う。
【解決手段】 相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、分割した以降の波形つまり音の切り替え前がなく音の切り替え後の波形からなるものを記憶する。取得した演奏情報に応じて2つの音の間をつなぐ接続音を発生すべきときに、前記接続区間の波形データを取得して2つの音の波形間を接続してなる楽音波形を生成する。こうすると、プレノート部分について波形データを読み出すことなくポストノート部分から波形データを読み出すために、前音から後音への遷移にかかる時間を短縮することができ、従って音を途切れさせることなく音と音との間をつなぐ接続区間において、後音の発音遅れを生じさせることなく高品質に楽音を合成することができるようになる。
【選択図】 図5

Description

この発明は、波形メモリ等に記憶した波形サンプルデータに基づいて、楽音あるいは音声若しくはその他任意の音を合成する楽音合成装置及びプログラムに関する。特に、音を途切れさせることなく音と音との間をつなぐ接続区間において、聴感上の発音遅れを生じさせることなく楽音の合成を行う楽音合成装置及びプログラムに関する。
従来から、自然楽器固有の各種奏法(若しくはアーティキュレーション)のリアルな再現とその制御を容易にした技術として、所謂AEM(Articulation Element Modeling)技術が知られており、該AEM技術を用いて高品質な楽音波形を合成することが行われている。従来知られているように、AEM技術においては、1音の立ち上がり区間(アタック部)を表すアタック奏法モジュール、1音の定常区間(ボディ部)を表すボディ奏法モジュール、1音の立ち下がり区間(リリース部)を表すリリース奏法モジュール、あるいは連続する音と音との間(又は音部分と音部分の間)を例えばレガート奏法などの任意の奏法で音を途切れさせることなくつなぐ接続区間(ジョイント部)を表すジョイント奏法モジュール、などの各区間に対応する奏法モジュールを時系列的に複数組み合わせることで、一連の音楽波形を高品質に生成することができるようになっている。なお、この明細書において、楽音波形という場合、音楽的な音の波形に限るものではなく、音声あるいはその他任意の音の波形を含んでいてもよい意味あいで用いるものとする。上記したようなAEM技術に関連するものとして、例えば下記に示す特許文献1に記載されている発明がその一例である。
特開2002-287759号公報
ここで、従来知られたジョイント奏法モジュールを用いて、音を途切れさせることなく音と音との間をつないだ一連の楽音波形の一例を図8に示す。図8(a)に示すように、演奏情報(例えばMIDI情報)として先行する1音目のノートオフ情報を取得する前に後続する2音目のノートオン情報が取得された場合には、相前後する2音の音を途切れさせることなく任意の奏法で接続した一連の楽音波形を、前音(先行して発音される1音目)をアタック奏法モジュール及びボディ奏法モジュールで、後音(前音に連続的に後続して発音される、前音とは異なる音高の2音目)をボディ奏法モジュール及びリリース奏法モジュールでそれぞれ表し、さらに各音毎のボディ奏法モジュール同士をジョイント奏法モジュールにより接続することで実現するようにしている。また、AEM技術においては、複数の奏法モジュールを時系列的に組み合わせて一連の楽音波形を生成する場合に、音の不自然さを伴うことなく奏法モジュール同士を接続するためにクロスフェード接続が用いられている。したがって、この場合においても図8(b)に示すように、前音のボディ奏法モジュールとジョイント奏法モジュール、ジョイント奏法モジュールと後音のボディ奏法モジュールとが、それぞれが有するジョイント奏法モジュールに隣接したループ波形(図中において長方形で示す)を用いてクロスフェード接続されている。
なお、本明細書では説明を理解し易くするために、従来知られたジョイント奏法モジュールにおいて、先行する1音目の音高が2音目に比べて聴感上主に聴こえる領域までに相当する前半部分のノンループ波形をプレノート部分(PreNote)と呼び(図中において斜線で示す)、前記先行する1音目の音高が2音目に比べて聴感上主に聴こえる領域以降(具体的には、先行する1音目の音高から後続する2音目の音高へと音高が切り替わっている以降)に相当する後半部分のノンループ波形をポストノート部分(PostNote)と呼んで便宜的に区別する。また、「ループ波形」とは、繰り返し読み出し(ループ読み出し)される波形という意味で用いるものとする。
ところで、ジョイント奏法モジュールを適用して楽音を合成する場合、場合によっては主に後音が聴こえ始めるまでに聴感上の発音遅れ(本明細書ではレーテンシー(Latency)と呼ぶ)が生ずることがある。図8(a)に示すように、ジョイント奏法モジュールによる楽音の合成は後音のノートオン情報を受信してから開始されるようになっており、またジョイント奏法モジュールにおいてはプレノート部分からポストノート部分に至る楽音合成のタイミングにきて、演奏者が初めて前音から後音へと音高が遷移して後音の発音が開始されたと聴感上認識することができる。そのために、ジョイント奏法モジュールのプレノート部分が時間的に長いと(図8(b)斜線部分参照)、プレノート部分の楽音の合成開始からポストノート部分の楽音の合成を開始するまで時間がかかってしまい、演奏者などは後音に発音遅れ(レーテンシー)を感じることになる。特に、ジョイント奏法モジュールのプレノート部分の時間的な長さは前音の音高に依存し、高音ならば短く低音ならば長いという特徴がある。また、楽器の種類によっては、音高遷移の影響を考慮してプレノート部分を長めに設定しておく必要がある(例えばトロンボーンなど)。したがって、高音に比べて低音ではレーテンシーが顕著に現れやすく、また楽器の種類によってはレーテンシーを常に感じやすかった。そこで、従来では、後音に関する演奏情報(MIDI情報など)を本来の演奏時間到来前に先行取得しておき(所謂データの先読み)、これに基づいてプレノート部分の時間長さを考慮した上で適切な時間位置にジョイント奏法モジュールを配置して楽音を合成することのできるようにしている(所謂プレイバック演奏)。プレイバック演奏では上記したような時間調整を行うことから、ジョイント奏法モジュールを用いた場合のレーテンシーが問題となることはあまりない。
しかしながら、演奏者による演奏操作に応じた楽音を順次に合成するリアルタイム演奏時においては、楽音の接続音部分でのレーテンシーが問題となる。すなわち、リアルタイム演奏では上記プレイバック演奏と異なり、演奏操作に対応したノートオン情報やノートオフ情報などの演奏情報を演奏操作前に先行取得することは当然にできず、演奏情報は演奏操作に応じてリアルタイムに供給されることになる。したがって、どうしても後音についてはジョイント奏法モジュールのプレノート部分の時間的な長さに影響を受けることから、楽音の接続音部分において後音にレーテンシーを生じさせることとなってしまい都合が悪い、という問題点があった。
本発明は上述の点に鑑みてなされたもので、楽音の接続音部分について聴感上の発音遅れを生じさせることなく、かつ音色変化を忠実に表現した高品質な楽音を合成することのできる楽音合成装置及びプログラムを提供しようとするものである。
本発明の請求項1に係る楽音合成装置は、相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、該分割した箇所以降の波形からなるものを記憶する記憶手段と、演奏進行に応じて演奏情報を取得する取得手段と、前記取得した演奏情報に応じて相前後する少なくとも2つの音の間をつなぐ接続音を発生すべきとき、前記記憶手段から前記接続区間の波形データを取得し、該取得した接続区間の波形データに基づき前記2つの音の波形間を接続してなる楽音波形を生成する楽音生成手段とを具える。
本発明によると、取得した演奏情報に応じて相前後する少なくとも2つの音の間をつなぐ接続音を発生すべきときに、記憶手段から接続区間の波形データを取得し、該取得した波形データに基づき前記2つの音の波形間を接続してなる楽音波形を生成する。前記記憶手段は、相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、前記分割した箇所以降の波形からなるものを記憶する。すなわち、記憶手段から音の切り替わり前の波形がなく音の切り替わり後の波形からなる接続区間の波形データを取得して、これを用いて楽音を合成する。こうすると、音の切り替わり前について波形データを読み出すことなく音の切り替わり後から波形データを読み出すために、前音から後音への遷移にかかる時間を短縮することができ、従って音を途切れさせることなく音と音との間をつなぐ接続区間において、聴感上における後音の発音遅れ(レーテンシー)を生じさせることなく、かつレガート奏法などの音色変化を忠実に表現した楽音を高品質に合成することができるようになる。
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
本発明によれば、相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、前記分割した箇所以降の波形からなるものを記憶しておき、接続区間における楽音合成の際に前記接続区間の波形データを用いることで、接続区間において後音の発音遅れを生じさせることなしに、レガート奏法などの音色変化を忠実に表現した楽音を高品質に合成することができるようになる、という効果が得られる。
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
図1は、この発明に係る楽音合成装置を適用した電子楽器のハードウエア構成例を示すブロック図である。ここに示す電子楽器は、演奏者による演奏操作子5の演奏操作に応じてリアルタイムに供給される演奏情報(ノートオン情報やノートオフ情報などの演奏イベントデータ、ダイナミクス情報やピッチ情報などの各種コントロールデータを含む)に基づいて電子的に楽音を発生したり、あるいは演奏進行順に供給される予め作成済みの演奏情報に基づいてデータの先読みなどを行いながら自動的に楽音を発生する楽音合成機能を有する。前記楽音合成機能の実行時において、本発明では2音が途切れることなく連続的につながっている接続音部(ジョイント部)について、演奏情報及びパラメータ情報に基づき使用すべき波形サンプルデータ(以下、単に波形データとも呼ぶ)の選択を行い、該選択された波形データに従って楽音を合成することにより、前記接続音部の楽音として特に聴感上の発音遅れ(レーテンシー)を生じさせることなく、かつレガート奏法などの楽音を高品質に再現することのできるようにしている。こうした接続音部の楽音合成については、後述する。
なお、この実施例に示す電子楽器はここに示す以外のハードウェアを有する場合もあるが、ここでは必要最小限の資源を用いた場合について説明する。また、音源としては、例えば様々な楽器毎の特有な奏法に対応する波形データとして、アタック区間、リリース区間、ボディ区間などの1音についての一部区間、あるいは連続する2音間についての接続区間において任意の奏法に対応した波形全体を記憶しておき(奏法モジュール)、これらを時系列的に複数組み合わせることで1音又は連続する複数音の楽音を形成することにより、自然楽器固有の各種奏法若しくはアーティキュレーションによる音色変化を忠実に表現した奏法などのリアルな再現とその制御を目的とした、従来から知られているAEM(Articulation Element Modeling)と称する楽音波形制御技術を用いた音源(所謂AEM音源)を用いた場合を例にして説明する。
図1に示した電子楽器はコンピュータを用いて構成されており、そこにおいて、上記したような楽音合成機能を実現する各種の「楽音合成処理」(ただし、この実施例ではそのうちのジョイント奏法モジュールに関連する処理についてのみ後述する:図4参照)は、コンピュータが各々の処理を実現する所定のプログラム(ソフトウエア)を実行することにより実施される。勿論、これらの各処理はコンピュータソフトウエアの形態に限らず、DSP(ディジタル・シグナル・プロセッサ)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウエア装置の形態で実施してもよい。
本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータの制御の下に各種の処理が実行されるようになっている。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、通信バス1D(例えば、データ及びアドレスバスなど)を介してROM2、RAM3、外部記憶装置4、演奏操作子5、パネル操作子6、表示器7、音源8、インタフェース9がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。すなわち、タイマ1Aは時間間隔を計数したり、所定の演奏情報に従って楽曲を演奏する際の演奏テンポを設定したりするためのテンポクロックパルスを発生する。このテンポクロックパルスの周波数は、パネル操作子6の中の例えばテンポ設定スイッチ等によって調整される。このようなタイマ1AからのテンポクロックパルスはCPU1に対して処理タイミング命令として与えられたり、あるいはCPU1に対してインタラプト命令として与えられる。CPU1は、これらの命令に従って各種処理を実行する。
ROM2は、CPU1により実行される各種プログラム、あるいは波形メモリとして様々な楽器毎の特有な奏法に対応する波形データ(例えば、レガート奏法などの音色変化の有る波形やストレートな音色を持つ波形等)などの各種データを格納するものである。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。外部記憶装置4は、自動演奏の元となる演奏情報や奏法に対応する波形データなどの各種データや、CPU1により実行あるいは参照される「ジョイント選択処理」(図4参照)などの各種制御プログラム等を記憶する。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置4(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置4はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。
演奏操作子5は楽音の音高を選択するための複数の鍵を備えた、例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子5は演奏者自身の手弾きによる楽音のマニュアル演奏のために使用できるのは勿論のこと、自動演奏対象とする予め用意されている演奏情報を選択するなどの入力手段として使用することもできる。勿論、演奏操作子5は鍵盤等の形態に限らず、楽音の音高を選択するための弦を備えたネック等のような形態のものなど、どのようなものであってもよいことは言うまでもない。パネル操作子(スイッチ等)6は、例えば自動演奏対象とする演奏情報を選択するための演奏情報選択スイッチ、後述するパラメータ情報を設定する設定スイッチ等、各種の操作子を含んで構成される。勿論、音高、音色、効果等を選択・設定・制御するために数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは表示器7に表示された各種画面の位置を指定するポインタを操作するマウスなどの各種操作子を含んでいてもよい。表示器7は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイであって、上記スイッチ操作に応じた各種画面を表示するのは勿論のこと、演奏情報や波形データなどの各種情報あるいはCPU1の制御状態などを表示することもできる。演奏者は該表示器7に表示されるこれらの各種情報を参照することで、演奏の際に使用する各種演奏パラメータの設定や自動演奏曲の選択などを容易に行うことができる。
音源8は複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた演奏情報を入力し、この演奏情報に基づいて楽音を合成して楽音信号を発生する。ここに示す電子楽器においては、演奏情報に基づき該当する波形データがROM2や外部記憶装置4などから読み出されると、該読み出された波形データはバスラインを介して音源8に与えられて適宜バッファ記憶される。そして、音源8ではバッファ記憶された波形データを所定の出力サンプリング周波数に従い出力する。この音源8から発生された楽音信号は、図示しない効果回路(例えば、DSP(Digital Signal Processor))などにより所定のディジタル信号処理が施され、該信号処理された楽音信号はサウンドシステム8Aに与えられて発音される。
インタフェース9は該電子楽器と外部の演奏情報生成機器(図示せず)などとの間で各種情報を送受するための、例えばMIDIインタフェースや通信インタフェースなどである。MIDIインタフェースは、外部の演奏情報生成機器(この場合には、他のMIDI機器等)からMIDI規格の演奏情報を当該電子楽器へ供給したり、あるいは当該電子楽器からMIDI規格の演奏情報を他のMIDI機器等へ出力するためのインタフェースである。他のMIDI機器はユーザによる操作に応じてMIDI形式のデータを発生する機器であればよく、鍵盤型、ギター型、管楽器型、打楽器型、身振り型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。通信インタフェースは、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワーク(図示せず)に接続されており、概通信ネットワークを介して、外部の演奏情報生成機器(この場合には、サーバコンピュータ等)と接続され、当該サーバコンピュータから制御プログラムや演奏情報などの各種情報を該電子楽器に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置4等に制御プログラムや演奏情報などの各種情報が記憶されていない場合に、サーバコンピュータから各種情報をダウンロードするために用いられる。クライアントとなる電子楽器は、通信インターフェース及び通信ネットワークを介してサーバコンピュータへと制御プログラムや演奏情報などの各種情報のダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求された各種情報を通信ネットワークを介して本電子楽器へと配信し、本電子楽器が通信インタフェースを介して各種情報を受信して外部記憶装置4等に蓄積することにより、ダウンロードが完了する。
なお、上記インタフェース9をMIDIインタフェースで構成した場合、該MIDIインタフェースは専用のMIDIインタフェースを用いるものに限らず、RS-232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェースを構成するようにしてもよい。この場合、MIDIデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェースとして上記したような汎用のインタフェースを用いる場合には、他のMIDI機器はMIDIデータ以外のデータも送受信できるようにしてよい。勿論、演奏情報に関するデータフォーマットはMIDI形式のデータに限らず、他の形式であってもよく、その場合はMIDIインタフェースと他のMIDI機器はそれにあった構成とする。
図1に示した電子楽器においては、演奏者による演奏操作子の操作に伴い発生される演奏情報、あるいは予め用意されたSMF(Standard MIDI File)形式等の演奏情報に基づいて楽音を連続的に発生させることのできる楽音合成機能を有する。そして、該楽音合成機能の実行時において、演奏者による演奏操作子5の操作に伴う演奏進行に応じてリアルタイムに順次に供給される演奏情報、あるいはシーケンサー(図示せず)などから演奏進行順に先読み等を行いながら順次に供給される演奏情報に基づいて、各区間について新たに使用すべき波形データの選択を行い、該選択された波形データに従って楽音を合成するようにしている。そこで、こうした楽音合成機能の概要について、図2を用いて説明する。図2は、当該電子楽器が有する楽音合成機能を説明するための機能ブロック図である。図2において、図中の矢印はデータの流れを表すものである。
楽音合成機能の開始に伴い、まず奏法合成部J3に対して入力部J2から演奏情報が演奏進行順に順次に供給される。入力部J2としては、演奏者による演奏操作に応じて適宜に演奏情報を発生する演奏操作子5や、予めROM2等に記憶した演奏情報を演奏進行順に供給するシーケンサーなどの入力装置がある。こうした入力部J2から供給される演奏情報は、ノートオン情報やノートオフ情報(これらを総称してノート情報と呼ぶ)などの演奏イベントデータと、ダイナミクス情報やピッチ情報などのコントロールデータとを少なくとも含む。奏法合成部J3では演奏イベントデータやコントロールデータなどを受け取ると、例えばノートオンによりアタック部やジョイント部を特定したり、ノートオフによりリリース部を特定したり、あるいはコントロールデータとして受け取った情報を変換したりするなどして、楽音を合成するために必要とされる各種情報を含む「奏法情報」を生成する。すなわち、奏法合成部J3はデータベースJ1(波形メモリ)にあるデータテーブルなどを参照して、入力されたダイナミクス情報やピッチ情報に対応する適用すべき奏法モジュールを選択し、該選択した奏法モジュールを特定する情報を該当する「奏法情報」に加える。前記奏法合成部J3においてジョイント部に適用するジョイント奏法モジュールを選択する場合には、パラメータ記憶部J5に記憶済みのパラメータ情報を参照し、該参照したパラメータ情報に従い、ノーマル用又はレーテンシー軽減用いずれのジョイント奏法モジュール(後述する図3参照)を選択する。パラメータ記憶J5に記憶されるパラメータ情報としては、ジョイント部にノーマル用又はレーテンシー軽減用いずれの奏法モジュールを用いるか、音質を重視するかレーテンシー軽減を重視するかなどの情報があり、こうした情報はユーザ自らが入力部J2を用いて設定できてもよいし、予め記憶しておいてもよい。楽音合成部J4では奏法合成部J3が生成した前記「奏法情報」に基づき、データベースJ1から使用する波形データを適宜に読み出して、楽音合成を行うことで楽音が出力される。すなわち、楽音合成部J4では、「奏法情報」に従って波形データの切り替えを行いながら楽音合成を行う。
ここで、上述したデータベースJ1(波形メモリ)に記憶される接続音部に適用するジョイント奏法モジュールについて、図3を用いて簡単に説明する。図3は、ジョイント奏法モジュールの一実施例を説明するための概念図である。ただし、図3では、奏法波形合成システムにおいて1つのイベントとして処理できる奏法波形の単位である「奏法モジュール」(楽器毎の種々の奏法に対応する波形を再生する多数のオリジナルの奏法波形データとそれに関連するデータ群(奏法パラメータと呼ぶ))のうち、奏法波形データにより表さられる波形の一例をそのエンベロープのみで略示し、また後述するような調和成分振幅(Amp)ベクタ及び調和成分ピッチ(Pitch)の代表点値列(図中において黒く塗りつぶした点)についての一例を図示している。
本発明において、ジョイント奏法モジュールは大きく2種類に分けて波形メモリに予め記憶される。
1)「ノーマル用(音質重視用)ジョイント奏法モジュール」:相前後する2つの音を途切れさせることなく(つまり無音状態を経由せずに連続的に)レガート奏法などで接続する区間(つまりジョイント部)を受け持つ従来知られた公知のジョイント奏法モジュールであって、主に前音の遷移を表す特徴的なノンループ波形からなるプレノート部分(音高の切り替わり前の波形)と、後音の遷移を表す特徴的なノンループ波形からなるポストノート部分(音高の切り替わり後の波形)とを有する。また、時間的に前後するその他の各波形データとクロスフェード接続するために、前端部及び後端部にはループ波形を有する。振幅(Amp)とピッチ(Pitch)は、前端部のループ部分以前に前音用のものを、後端部のループ部分以降に後音用のものを有する。
2)「レーテンシー軽減用ジョイント奏法モジュール」:相前後する2つの音を途切れさせることなく(つまり無音状態を経由せずに連続的に)、レガートで接続する区間(つまりジョイント部)を受け持つ奏法モジュールであるが、上記した従来のものと比較すると、波形データはプレノート部分を有せずにポストノート部分のみを有する。例えば、当該モジュールは上記ノーマル用の波形データをその波形特性(主に前音から後音へ切り替わるポイント)に基づいて複数に区切り、該区切られた一部分(前記ポイント以降)の特徴的な波形データ(音の切り替わり後のノンループ波形)のみを、レーテンシー軽減のために用いる専用の奏法波形データとしたジョイント奏法モジュールである。勿論、このレーテンシー軽減用についてもノーマル用と同様に、前端部及び後端部にはループ波形を有する。振幅(Amp)とピッチ(Pitch)は前端部のループ部分以前に前音から後音への振幅とピッチの変化を示すものを有し、後端部のループ部分以降に後音用のものを有する。
なお、上記の分類法は本明細書での説明のための一例にすぎず、奏者、楽器の種類、演奏ジャンル等のオリジナル音源別にも分類されるのは勿論である。
従来知られているように、1つの奏法モジュールに対応する1つの奏法波形データはそのままデータベースに記憶されているのではなく、複数の波形構成要素の集合からなるものとしてデータベースに記憶されている。この波形構成要素を、以下、「ベクタ(又はベクトル)」という。1つの奏法モジュールに対応するベクタの種類には、一例として下記のようなものがある。
1.調和成分の波形(Timbre)ベクタ: 調和成分の波形構成要素のうち、ピッチと振幅をノーマライズした波形形状のみの特徴を抽出したもの。
2.調和成分の振幅(Amp)ベクタ: 調和成分の波形構成要素のうち、振幅エンベロープ特性を抽出したもの。
3.調和成分のピッチ(Pitch)ベクタ: 調和成分の波形構成要素のうち、ピッチ特性を抽出したもの(例えば或る基準ピッチを基準にした時間的ピッチ変動特性を示すもの)。
4.調和外成分の波形(Timbre)ベクタ: 調和外成分の波形構成要素のうち、振幅をノーマライズした波形形状(ノイズ的波形)のみの特徴を抽出したもの。
5.調和外成分の振幅(Amp)ベクタ: 調和外成分の波形構成要素のうち、振幅エンベロープ特性を抽出したもの。
更に、別の種類のベクタ(例えば、波形の時間軸の進行を示す時間ベクタなど)が含まれていてもよいが、ここではその説明を省略する。なお、調和成分及び調和外成分とは、対象たるオリジナルの奏法波形をピッチ調和成分からなる波形とそれ以外の残りの波形成分とに分離することで定義されるものである。
奏法波形の合成に際しては、これらのベクタデータに対して制御データに応じた加工処理を適宜施して時間軸上に配置することで、奏法波形の各構成要素に対応する波形若しくはエンベロープを演奏音の再生時間軸に沿ってそれぞれ構築し、このようにして時間軸上に配置された各ベクタデータに基づいて所定の波形合成処理を行うことで、奏法波形を生成する。例えば、調和波形ベクトルに調和ピッチベクタに応じたピッチ及びその時間変化特性を付与すると共に調和振幅ベクタに応じた振幅及びその時間変化特性を付与することで調和成分の波形を合成し、調和外波形ベクトルに調和外振幅ベクトルに応じた振幅及びその時間変化特性を付与することで調和外成分の波形を合成し、調和成分の波形と調和外成分の波形とを加算合成することで、最終的な所定の奏法的特徴を示す演奏音波形つまり奏法波形を生成することができる。
上記データベースJ1において、各波形データと共に付加的に記憶されるデータ群(奏法パラメータ)としては、例えばその記憶しているオリジナルの波形データのダイナミクス値やピッチ情報、あるいは合成時に用いられる基本のクロスフェード長(時間長)などがある。こうしたデータ群は、「データテーブル」として一括管理することのできるようにしている。すなわち、奏法パラメータは当該奏法モジュールに係る波形の時間やレベルなどを制御するためのパラメータであり、各奏法モジュールの性格に応じて適宜異なる1又は複数種類のパラメータが含まれていてよい。こうした奏法パラメータは、波形メモリ等に予め記憶されていてもよいし、あるいはユーザの入力操作によって入力するようにしたり、あるいは既存のパラメータをユーザの操作によって適宜変更できるようになっていたりしてもよい。また、奏法波形の再生に際して、奏法パラメータが与えられなかったような場合には標準的な奏法パラメータを自動的に付加するようにしてもよい。また、処理の過程で、適宜のパラメータが自動的に生成されて付加されるようになっていてもよい。
次に、上記データベースJ1に記憶したジョイント奏法モジュール(図3参照)のうち、いずれの奏法モジュールを使用するかを選択する「ジョイント選択処理」について、図4を用いて説明する。図4は、「ジョイント選択処理」の一実施例を示したフローチャートである。当該処理は奏法合成部J3で実行される処理であり、図示しない「演奏楽音合成処理」において、演奏者の操作に応じて入力された演奏情報に基づき、楽音の接続音部にレガート奏法を適用するよう判定された、つまりジョイント奏法モジュールを適用することが決定された以降に実行される処理である。すなわち、該処理実行前には、既に前音のアタック部及びボディ部の波形が図示しない「演奏楽音合成処理」によって生成されており、このアタック部及びボディ部の波形合成処理に引き続いてジョイント奏法モジュールを適用するよう判定された場合に、この「ジョイント選択処理」が行われ、ジョイント部の波形合成のために使用すべきジョイント奏法モジュールが選択されることにより、一連の楽音波形を生成することのできるようになっている。
ステップS1は、波形データがプレノート部分及びポストノート部分を有する従来知られたノーマル用ジョイント奏法モジュール(以下、単にノーマル用)、又はプレノート部分がなくポストノート部分のみを有する本発明に係るレーテンシー軽減用ジョイント奏法モジュール(以下、単にレーテンシー軽減用)のいずれの奏法モジュールを使用するかの選択を行う。この選択処理では、例えばユーザが予め任意に設定しておいたレーテンシー軽減重視か音質重視かなどのパラメータ情報に従って、あるいはリアルタイム演奏かプレイバック演奏かを自動的に判定して、上記いずれかの奏法モジュールを選択するようにしてよい。例えばレーテンシー軽減重視の設定時又はリアルタイム演奏時にはレーテンシー軽減用を、音質重視の設定時又はプレイバック演奏時にはノーマル用を選択させるようにするとよい。ノーマル用を選択した場合には(ステップS1のNO)、ノーマル用を使用するよう指定した奏法情報を生成する(ステップS6)。勿論、この場合にはレーテンシーは軽減されない(後述する図5参照)。
他方、レーテンシー軽減用を選択した場合には(ステップS1のYES)、該選択したレーテンシー軽減用に対応した、データベースJ1に記憶されているクロスフェード長(時間長)を調整するか否かを判定する(ステップS2)。クロスフェード長を調整しないと判定した場合には(ステップS2のNO)、データベースJ1に記憶されている元データのクロスフェード長で、前記選択済みのレーテンシー軽減用ジョイント奏法モジュールを使用するよう指定した奏法情報を生成する(ステップS5)。クロスフェード長を調整すると判定した場合には(ステップS2のYES)、振幅(Amp)ベクタ、ピッチ(Pitch)ベクタ、波形(Timbre)ベクタの各配置時間を指定されたパーセンテージなどに従い加工する(ステップS3)。例えば当該電子楽器にはクロスフェード長の調整機能をオン/オフするスイッチが具えられており、このスイッチ操作に応じてクロスフェード長の調整機能がオン(調整する)に設定されている場合には、予め決められた長さ(例えば、元の時間長さの50%などの適宜の値)に元データのクロスフェード長を自動的に縮減するといった所定のルールに従うようにしてあってもよいし、あるいは元データのクロスフェード長を何パーセントに縮減するといった情報を、ユーザがノート毎に任意に設定できるようにしてあってもよい。そして、該加工したクロスフェード長で、前記選択済みのレーテンシー軽減用ジョイント奏法モジュールを使用するよう指定した奏法情報を生成する(ステップS4)。このように、当該「ジョイント選択処理」によれば、接続音部に対する楽音合成のために使用するジョイント奏法モジュールを、ノーマル用とレーテンシー軽減用のいずれかから選択することができ、またレーテンシー軽減用を選択した場合に前音のボディ部とのクロスフェード長を調整することができるようにもなっている。こうすることにより、音と音との間をつなぐ接続音部における聴感上の後音の発音遅れ(レーテンシー)を軽減することができる。
ここで、ノーマル用とレーテンシー軽減用の各ジョイント奏法モジュールをそれぞれ使用した場合に生ずる、音と音との間をつなぐ接続音部における聴感上の後音の発音遅れ(レーテンシー)について、図5を用いて比較する。図5は、レーテンシーを模式的に説明するための概要図である。上段はノーマル用を使用した場合(つまり、レーテンシー改善前)を示すものであり、下段はレーテンシー軽減用を使用した場合(つまり、レーテンシー改善後)を示すものである。なお、この図5では、ジョイント奏法モジュールにおける調和成分用の各ベクタ例を示しており、調和外成分の各ベクタ例については図示を省略している。図中において「HA」は調和成分振幅(Amp)ベクタの代表点値列(一例として、0,1,2,3の4点からなる)、「HP」は調和成分ピッチ(Pitch)ベクタの代表点値列(一例として、0,1,2,3の4点からなる)、「HT」は調和成分波形(Timbre)ベクタの一例(ただし、波形をそのエンベロープのみで略示している)を示す。
ノーマル用ジョイント奏法モジュールを用いる場合、演奏情報を取得すると、該当するノーマル用ジョイント奏法モジュールをデータベースから1つ選択して、奏法情報を生成する。該選択した奏法情報に基づいてノーマル用の波形データを読み出し、接続音部の楽音波形を生成する。その際に、まず前音のボディ音の最後のループ波形Aとノーマル用のループ波形Bとをクロスフェードして楽音を合成する。クロスフェード長だけ時間が経過すると、ノーマル用の波形データのうちプレノート部分Prが読み出され、接続音部のうちのプレノート部分の楽音波形を生成する。プレノート部分の楽音波形が全て生成された後、引き続きノーマル用の波形データのうちポストノート部分Poを読み出すことで、プレノート部分に後続するポストノート部分の楽音波形を生成する。さらに時間が経過してポストノート部分の波形データが全て読み出されると、ノーマル用のループ波形Cと後続するリリース部(あるいはボディ部)の最初のループ波形Dとを適宜クロスフェード合成する。この場合、ノーマル用ジョイント奏法モジュールのポストノート部分Poが読み出し開始されるまでには、Latency1だけの時間がかかることになる。
一方、レーテンシー軽減用ジョイント奏法モジュールを用いる場合、演奏情報を取得すると、該当するレーテンシー軽減用ジョイント奏法モジュールをデータベースから1つ選択して、奏法情報を生成する。該選択した奏法情報に基づいてレーテンシー軽減用の波形データを読み出し、接続音部の楽音波形を生成する。その際、前音のボディ音の最後のループ波形Aとレーテンシー軽減用のループ波形Bとをクロスフェードして楽音を合成する。クロスフェード長だけ時間が経過すると、レーテンシー軽減用の波形データLtが読み出され、接続音部全体の楽音波形を生成する。さらに時間が経過してレーテンシー軽減用の波形データLtが全て読み出されると、レーテンシー軽減用のループ波形Cと後続するリリース部(あるいはボディ部)の最初のループ波形Dとを適宜クロスフェード合成する。このようにして、本発明に係るレーテンシー軽減用を用いた場合には、前音のボディ部のループ波形Aと従来でいうポストノート部分Poに相当するレーテンシー軽減用の波形データLtとを直接クロスフェードして楽音を合成することになる。この場合、レーテンシー軽減用の波形データLtが読み出し開始されるまでには、Latency2だけの時間がかかることになる。この時間Latency2は前記時間Latency1と比較して時間的に短く、従って従来に比べて後音の発音遅れ(レーテンシー)が軽減されていることが理解できる。
以上のように、ノーマル用ジョイント奏法モジュールを用いた場合には、ポストノート部分の波形データPoの読み出しはプレノート部分の波形データPrを全て読み出してから開始されることから、後音についてはどうしてもプレノート部分の時間長さに影響を受けレーテンシーが生ずることになる。一方、レーテンシー軽減用ジョイント奏法モジュールを用いた場合には、ノーマル用におけるプレノート部分がない波形データLtを利用することから、ポストノート部分に相当する波形データLtの読み出しがループ波形(A及びB)同士のクロスフェード後すぐに行われ、後音について従来のようなプレノート部分Prの影響を受けることがないので、レーテンシーを従来に比べて短縮することができる。また、レーテンシー軽減用ジョイント奏法モジュールを用いて楽音を合成する場合には、上記したように前音のボディ部の最後のループ波形Aとレーテンシー軽減用のループ波形Bをクロスフェードすることで、これにより前音の遷移を表すプレノート部分Prについても実現するようにしている。
上述したように、レーテンシー軽減用ジョイント奏法モジュールを用いて楽音を合成すると、従来に比べてレーテンシーを短縮することができる。しかし、レーテンシー軽減用ジョイント奏法モジュールを用いてレーテンシーを短縮する場合には、前音から後音への音の遷移がノーマル用ジョイント奏法モジュールを使用した時と比べて唐突になることがある。こうした不都合を避けるため、上記「ジョイント選択処理」においては、クロスフェード長を任意に変更して楽音を合成することのできるようにしている(図4のステップS2参照)。そこで、こうしたクロスフェード長を変更した場合の、音と音との間をつなぐ接続音部における聴感上の発音遅れ(レーテンシー)について、図6を用いて比較する。図6は、レーテンシーを模式的に説明するための概要図である。上段はオリジナルのクロスフェード長を選択した場合を示すものであり、下段はクロスフェード長を短くした場合を示すものである。なお、この図6でも図5と同様にジョイント奏法モジュールにおける調和成分用の各ベクタ例を示しており、HA,HP,HT等の符号の意味は図5におけるものと同様である。
図6から理解できるように、クロスフェード長を調整する場合に、振幅(Amp)ベクタについては「HA0」と「HA1」間の時間長さを、ピッチ(Pitch)ベクタについては「HP0」と「HP1」間の時間長さを、波形(Timbre)ベクタについては「HT0」の時間を調整する。オリジナルのクロスフェード長の場合には、振幅(Amp)ベクタ「HA0」と「HA1」間の時間長さ及びピッチ(Pitch)ベクタ「HP0」と「HP1」間の時間長さをオリジナルの長さにすると、ボディ部のループ波形Aとレーテンシー軽減用のループ波形Bとのクロスフェード長をオリジナルのクロスフェード長分確保することができ、ボディ部からの音の遷移を滑らかにすることができる。一方、クロスフェード長を短くした場合には、振幅(Amp)ベクタ「HA0」と「HA1」間の時間長さ及びピッチ(Pitch)ベクタ「HP0」と「HP1」間の時間長さを短縮すると、ボディ部のループ波形Aとレーテンシー軽減用のループ波形Bとのクロスフェード長を短くすることができ、上記クロスフェード長を長くした場合に比べるとボディ部からの音の遷移を滑らかにはできないが、レーテンシーを軽減することができる(Latency2及びLatency3参照)。
上述した実施例では、ノーマル用とレーテンシー軽減用の各ジョイント奏法モジュールを別々に用意した例を示したがこれに限らない。例えば図7に示すように、従来知られたノーマル用のジョイント奏法モジュールにレーテンシー軽減用ジョイント奏法モジュールとして用いる部分の情報を追加的に持たせ、必要に応じて1つのジョイント奏法モジュールでノーマル用とレーテンシー軽減用とに切り替えながら用いるようにしてもよい。図7から理解できるように、こうした場合にデータテーブルに登録する各ベクタ情報としては、振幅(Amp)ベクタの代表点値列(HA0〜HA5)、ピッチ(Pitch)ベクタの代表点値列(HP0〜HP5)、波形(Timbre)ベクタ(HT0及びHT1)を持ち、波形データとしてはプレノート部分Pr、ポストノート部分Lt、及び前後端部のループ波形B,C及びプレノート部分Prとポストノート部分Lt間におけるループ波形Yなどをそれぞれ記憶している。こうした1つのジョイント奏法モジュールを用いてノーマル用からレーテンシー軽減用に切り替える場合には、振幅(Amp)ベクタの代表点値列についてHA1、HA3、HA4、HA5の4点、ピッチ(Pitch)ベクタの代表点値列についてHP1、HP3、HP4、HP5の4点、波形(Timbre)ベクタについてHT1をベクタデータとして与えるようにすればよい。一方、レーテンシー軽減用からノーマル用に切り替える場合には、振幅(Amp)ベクタの代表点値列についてHA0、HA2、HA4、HA5の4点、ピッチ(Pitch)ベクタの代表点値列についてHP0、HP2、HP4、HP5の4点、波形(Timbre)ベクタについてHT0をベクタデータとして与えるようにすればよい。
なお、本発明において使用する波形データは、上述したような各種奏法に対応して「奏法モジュール」化されたものに限らず、その他のタイプのものであってもよい。また、各ユニットの波形データは、メモリに記憶したPCM、DPCM、ADPCMのような適宜の符号化形式からなる波形サンプルデータを単純に読み出すことで生成されるようなものであってもよいし、あるいは、高調波合成演算やFM演算、AM演算、フィルタ演算、フォルマント合成演算、物理モデル音源など、各種の公知の楽音波形合成方式を適宜採用したものであってもよいことは言うまでもない。すなわち、音源8における楽音信号発生方式は、いかなるものを用いてもよい。例えば、発生すべき楽音の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを求めるFM方式、あるいは上記アドレスデータを位相角パラメータデータとして所定の振幅変調演算を実行して楽音波形サンプル値データを求めるAM方式等の公知の方式を適宜採用してよい。このように、音源回路8の方式は波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源8を構成するものに限らず、DSPとマイクロプログラム、あるいはCPUとソフトウェアを用いて音源回路8を構成するようにしてもよい。さらに、共通の回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、各発音チャンネルがそれぞれ専用回路で構成されるようなものであってもよい。
なお、上述した各楽音合成処理における楽音合成の方式としては、既存の演奏情報を本来の演奏時間到来前に先行取得しておき、これを解析して楽音を合成する所謂プレイバック方式であってもよいし、リアルタイムに供給された演奏情報に基づき楽音を合成するリアルタイム方式のどちらであってもよい。
なお、時系列的に順次選択され生成された複数のユニットの波形同士を接続する手法は、クロスフェード合成に限らず、例えば生成されたユニットの各波形同士をフェーダーによるミックスする手法などであってもよい。
なお、クロスフェードカーブはリニアなものに限らず、適宜の曲線をもつものであってよい。
なお、この奏法自動判定装置を電子楽器に適用する場合、電子楽器は鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、演奏操作子、表示器、音源等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各機器を接続するように構成されたものにも同様に適用できることはいうまでもない。また、パソコンとアプリケーションソフトウェアという構成であってもよく、この場合処理プログラムを磁気ディスク、光ディスクあるいは半導体メモリ等の記憶メディアから供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ装置や自動演奏ピアノのような自動演奏装置、ゲーム装置、携帯電話等の携帯型通信端末などに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバコンピュータ側に持たせ、端末とサーバコンピュータとからなるシステム全体として所定の機能を実現するようにしてもよい。すなわち、本発明に従う所定のソフトウエア又はハードウエアを用いることによって、データベースに記憶されたノーマル用又はレーテンシー軽減用のジョイント奏法モジュールに適宜に切り替えながら楽音を合成することのできるようにしたものであればどのようなものであってもよい。
この発明に係る楽音合成装置を適用した電子楽器のハードウエア構成例を示すブロック図である。 楽音合成機能を説明するための機能ブロック図である。 ジョイント奏法モジュールの一実施例を説明するための概念図である。 ジョイント選択処理の一実施例を示したフローチャートである。 ノーマル用とレーテンシー軽減用を使用した場合に生ずるレーテンシーを模式的に説明するための概要図である。 クロスフェード長変更の場合に生ずるレーテンシーを模式的に説明するための概要図である。 ノーマル用のジョイント奏法モジュールにレーテンシー軽減用ジョイント奏法モジュールとして用いる部分の情報を追加的に持たせた場合の一実施例である。 従来知られたジョイント奏法モジュールの一実施例を示した概要図である。
符号の説明
1…CPU、1A…タイマ、2…ROM、3…RAM、4…外部記憶装置、5…演奏操作子(鍵盤等)、6…パネル操作子、7…表示器、8…音源、8A…サウンドシステム、9…インタフェース、1D…通信バス、J1…データベース、J2…入力部、J3…奏法合成部、J4…楽音合成部、J5…パラメータ記憶部

Claims (5)

  1. 相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、該分割した箇所以降の波形からなるものを記憶する記憶手段と、
    演奏進行に応じて演奏情報を取得する取得手段と、
    前記取得した演奏情報に応じて相前後する少なくとも2つの音の間をつなぐ接続音を発生すべきとき、前記記憶手段から前記接続区間の波形データを取得し、該取得した接続区間の波形データに基づき前記2つの音の波形間を接続してなる楽音波形を生成する楽音生成手段と
    を具える楽音合成装置。
  2. 前記記憶手段に記憶される接続区間の波形データは、分割した箇所以降のノンループ波形と繰り返し読み出しされるループ波形とを有してなり、
    前記楽音生成手段は、前記接続区間の波形データにおけるループ波形と、当該接続区間に相前後する当該接続区間以外の波形データが有するループ波形とをクロスフェードして、一連の楽音波形を生成することを特徴とする請求項1に記載の楽音合成装置。
  3. 前記楽音生成手段は、クロスフェードに係る時間長に基づいて前記2つの音のうちの後音の発音タイミングの遅れを調整することを特徴とする請求項2に記載の楽音合成装置。
  4. 前記記憶手段は、さらに相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データとして、少なくとも2つの音が連続する波形からなるものを記憶してなり、
    前記楽音生成手段は、前記取得した演奏情報に応じて相前後する少なくとも2つの音の間をつなぐ接続音を発生すべきとき、前記分割した箇所以降からなるもの又は前記少なくとも2つの音が連続する波形からなるもののいずれかを選択して、該選択した接続区間の波形データに基づき前記2つの音の波形間を接続してなる楽音波形を生成することを特徴とする請求項1乃至3のいずれかに記載の楽音合成装置。
  5. 相前後して発生される少なくとも2つの音の間をつなぐ接続区間の波形データであって、少なくとも2つの音が連続する波形を前音と後音が切り替わる箇所で分割して、該分割した箇所以降の波形からなるものを記憶するメモリを使用して、コンピュータに、
    演奏進行に応じて演奏情報を取得する手順と、
    前記取得した演奏情報に応じて相前後する少なくとも2つの音の間をつなぐ接続音を発生すべきとき、前記記憶手段から前記接続区間の波形データを取得し、該取得した接続区間の波形データに基づき前記2つの音の波形間を接続してなる楽音波形を生成する手順と
    を実行させるプログラム。
JP2006001984A 2006-01-10 2006-01-10 楽音合成装置及びプログラム Expired - Fee Related JP4561636B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006001984A JP4561636B2 (ja) 2006-01-10 2006-01-10 楽音合成装置及びプログラム
EP07000256A EP1806733A1 (en) 2006-01-10 2007-01-08 Tone synthesis apparatus and method
US11/651,699 US7557288B2 (en) 2006-01-10 2007-01-09 Tone synthesis apparatus and method
CN200710001248XA CN101000761B (zh) 2006-01-10 2007-01-09 音调合成设备和方法
CA2573434A CA2573434C (en) 2006-01-10 2007-01-09 Tone synthesis apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006001984A JP4561636B2 (ja) 2006-01-10 2006-01-10 楽音合成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2007183442A true JP2007183442A (ja) 2007-07-19
JP4561636B2 JP4561636B2 (ja) 2010-10-13

Family

ID=37866231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006001984A Expired - Fee Related JP4561636B2 (ja) 2006-01-10 2006-01-10 楽音合成装置及びプログラム

Country Status (5)

Country Link
US (1) US7557288B2 (ja)
EP (1) EP1806733A1 (ja)
JP (1) JP4561636B2 (ja)
CN (1) CN101000761B (ja)
CA (1) CA2573434C (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5142363B2 (ja) * 2007-08-22 2013-02-13 株式会社河合楽器製作所 成分音合成装置及び成分音合成方法。
US9159325B2 (en) * 2007-12-31 2015-10-13 Adobe Systems Incorporated Pitch shifting frequencies
US8927847B2 (en) * 2013-06-11 2015-01-06 The Board Of Trustees Of The Leland Stanford Junior University Glitch-free frequency modulation synthesis of sounds
CN104575474B (zh) * 2013-10-10 2018-02-06 深圳市咪发发科技有限公司 电子乐器触发感应开关二合一检测的方法及装置
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
CN104942810B (zh) * 2015-04-29 2016-08-31 成都陌云科技有限公司 一种智能降噪机器人

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59177597A (ja) * 1983-03-29 1984-10-08 松下電器産業株式会社 楽音合成装置
JPS6286394A (ja) * 1985-10-11 1987-04-20 ヤマハ株式会社 楽音信号発生方法
JPH06149261A (ja) * 1992-11-05 1994-05-27 Yamaha Corp 電子楽器
JP2000056773A (ja) * 1998-08-07 2000-02-25 Yamaha Corp 波形形成装置及び方法
JP2001100761A (ja) * 1999-09-27 2001-04-13 Yamaha Corp 波形生成方法及び装置
US6316710B1 (en) * 1999-09-27 2001-11-13 Eric Lindemann Musical synthesizer capable of expressive phrasing
JP2002287759A (ja) * 2001-03-27 2002-10-04 Yamaha Corp 波形生成方法及び装置
JP2003084770A (ja) * 2001-09-13 2003-03-19 Yamaha Corp 波形生成装置及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69836393T2 (de) * 1997-09-30 2007-09-06 Yamaha Corp., Hamamatsu Verfahren, Vorrichtung und maschineslesbares Speichermedium zur Klangsynthesierung
JP3644263B2 (ja) * 1998-07-31 2005-04-27 ヤマハ株式会社 波形形成装置及び方法
US6576827B2 (en) * 2001-03-23 2003-06-10 Yamaha Corporation Music sound synthesis with waveform caching by prediction
EP1258864A3 (en) * 2001-03-27 2006-04-12 Yamaha Corporation Waveform production method and apparatus
JP4274152B2 (ja) * 2005-05-30 2009-06-03 ヤマハ株式会社 楽音合成装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59177597A (ja) * 1983-03-29 1984-10-08 松下電器産業株式会社 楽音合成装置
JPS6286394A (ja) * 1985-10-11 1987-04-20 ヤマハ株式会社 楽音信号発生方法
JPH06149261A (ja) * 1992-11-05 1994-05-27 Yamaha Corp 電子楽器
JP2000056773A (ja) * 1998-08-07 2000-02-25 Yamaha Corp 波形形成装置及び方法
JP2001100761A (ja) * 1999-09-27 2001-04-13 Yamaha Corp 波形生成方法及び装置
US6316710B1 (en) * 1999-09-27 2001-11-13 Eric Lindemann Musical synthesizer capable of expressive phrasing
JP2002287759A (ja) * 2001-03-27 2002-10-04 Yamaha Corp 波形生成方法及び装置
JP2003084770A (ja) * 2001-09-13 2003-03-19 Yamaha Corp 波形生成装置及び方法

Also Published As

Publication number Publication date
CN101000761B (zh) 2011-05-18
US7557288B2 (en) 2009-07-07
US20070157796A1 (en) 2007-07-12
CN101000761A (zh) 2007-07-18
JP4561636B2 (ja) 2010-10-13
CA2573434A1 (en) 2007-07-10
CA2573434C (en) 2011-01-04
EP1806733A1 (en) 2007-07-11

Similar Documents

Publication Publication Date Title
JP4274152B2 (ja) 楽音合成装置
JP4702160B2 (ja) 楽音合成装置及びプログラム
JP2007011217A (ja) 楽音合成装置及びプログラム
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP4802857B2 (ja) 楽音合成装置及びプログラム
JP3915807B2 (ja) 奏法自動判定装置及びプログラム
JP4407473B2 (ja) 奏法決定装置及びプログラム
JP4802947B2 (ja) 奏法決定装置及びプログラム
JP5969421B2 (ja) 楽器音出力装置及び楽器音出力プログラム
JP3873790B2 (ja) 奏法表示編集装置及び方法
JP4816441B2 (ja) 楽音合成装置及びプログラム
JP4172509B2 (ja) 奏法自動判定装置及び方法
JP4821558B2 (ja) 楽音合成装置及びプログラム
JP4238807B2 (ja) 音源用波形データの決定装置
JP2006133464A (ja) 奏法決定装置及びプログラム
JP4218566B2 (ja) 楽音制御装置及びプログラム
JP2002287759A (ja) 波形生成方法及び装置
JP2008003222A (ja) 楽音合成装置及びプログラム
JP4826276B2 (ja) 楽音合成装置及びプログラム
JP2002287760A (ja) 波形生成方法及び装置
JP2003084770A (ja) 波形生成装置及び方法
JP2003271139A (ja) 奏法自動判定装置及び方法
JP2002229564A (ja) 演奏データ処理装置及び方法並びに記憶媒体
JP2002287761A (ja) 波形生成方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4561636

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees