JP3654026B2 - Performance system compatible input system and recording medium - Google Patents

Performance system compatible input system and recording medium Download PDF

Info

Publication number
JP3654026B2
JP3654026B2 JP02085199A JP2085199A JP3654026B2 JP 3654026 B2 JP3654026 B2 JP 3654026B2 JP 02085199 A JP02085199 A JP 02085199A JP 2085199 A JP2085199 A JP 2085199A JP 3654026 B2 JP3654026 B2 JP 3654026B2
Authority
JP
Japan
Prior art keywords
icon
performance
data
style
original music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02085199A
Other languages
Japanese (ja)
Other versions
JP2000221972A (en
Inventor
秀雄 鈴木
真雄 坂間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP02085199A priority Critical patent/JP3654026B2/en
Priority to DE60024157T priority patent/DE60024157T2/en
Priority to EP00101209A priority patent/EP1026660B1/en
Priority to US09/489,431 priority patent/US6798427B1/en
Publication of JP2000221972A publication Critical patent/JP2000221972A/en
Application granted granted Critical
Publication of JP3654026B2 publication Critical patent/JP3654026B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、奏法対応入力システム及びその記録媒体に関する。この発明は、より詳細には、原曲音符データに対しアイコンを用いてアーティキュレーション(articulation)を入力する対話形奏法対応入力システム及びその記録媒体に関する。
【0002】
【従来の技術】
楽器を実際に演奏する際には、例えば、「ベンドアップ」によりピッチ(音高)を原音の下から上に高めて行く演奏をしたり、「装飾音」で原音に飾りを付けたり、「ビブラート」で音をふるわせたり、「レガート」で滑らかに音を繋げる等々、種々の奏法が採用されている。従来技術においては、このような奏法を実現するために、例えばMIDI形式のホワイトデータに対して、このような奏法を表わすアーティキュレーションデータを、各奏法毎に、所定時間分だけ細かい時間単位で、順次、書き込んでいくという作業を行っており、膨大な労力を要していたにも拘わらず、リアリティーのあるアーティキュレーションを高品位にかつ効率よく合成することができなかった。
【0003】
【発明が解決しようとする課題】
この発明は、アーティキュレーションに対応する奏法アイコンを用い、原曲データに対してアコースティック楽器の同等な高品質演奏表現を与えて、リアリティーのあるアーティキュレーションを、高品位にしかも効率よく合成することができる奏法対応入力システムを提供することを主たる目的とし、特に、所望のアーティキュレーションを付与するための奏法アイコンを効果的に表示することができる奏法対応入力システムを提供することを目的とする。
【0004】
【課題を解決するための手段】
この発明の主たる特徴に従うと、原曲データ及びこの原曲データに付加されるアーティキュレーションを表わす奏法アイコンを表示する表示手段と、表示された原曲データに対して奏法アイコンを貼り付ける手段と、貼り付けられた奏法アイコンに応じてアーティキュレーションを原曲データに付与し演奏データを生成する手段とを備え、表示手段の表示画面には、原曲データが表示される原曲表示エリアに並行して、それぞれ特定された種類の奏法アイコンが貼り付け表示される複数のレイヤーが設けられている奏法対応入力システムが提供され、各レイヤーには、互いに競合しない類似のアーティキュレーションを表わす奏法アイコンが貼り付け可能である。
【0005】
この発明の別の特徴に従うと、原曲データ及びこの原曲データに付加されるアーティキュレーションを表わす奏法アイコンを表示する表示手段と、表示された原曲データに対して奏法アイコンを貼り付ける手段と、貼り付けられた奏法アイコンに応じてアーティキュレーションを原曲データに付与し演奏データを生成する手段とを備え、表示手段の表示画面には、原曲データが表示される原曲表示エリアと、貼り付けられた特定種類の奏法アイコンが表示されるアイコン貼付エリアとが設けられ、貼り付けられた特定種類外の奏法アイコンについては、対応する楽譜記号が原曲データに付加的に表示されるている奏法対応入力システムが提供される。また、この発明においては、アーティキュレーションを付与するための表現データには、演奏楽器の楽音波形を分析して得た時系列的な楽音パラメータが用いられる
【0006】
〔作用〕
この発明の特徴によれば、原曲音符データに種々のアーティキュレーションを付与するに当って、単に各アーティキュレーションを示す楽譜記号を用意しておくだけでなく、アーティキュレーションのそれぞれを「アイコン」という形で予め登録しておき、ディスプレイに表示される原曲音符データの楽譜上にこれらのアイコンを貼り付けていくという極く簡単な操作を行うだけで、所望のアーティキュレーションを高品位にしかも効率よく合成することができる。
【0007】
この発明によると、ディスプレイ上には、原曲データが表示される原曲表示エリアに並行して複数のレイヤーが設けられ、また、奏法アイコンは、似たアーティキュレーション(奏法)を表わすグループに予め分類されており、奏法アイコンがユーザにより選択されると、この分類に基づいて、各レイヤーに特定の類似した奏法アイコンが貼り付け表示されるようになっているので、アーティキュレーションの設定状態を容易に認識することができる。
【0008】
この発明では、表示手段の表示画面に原曲表示エリアとアイコン貼付エリアとが設けられ、通常使用される標準的な楽譜記号で表わし得るアーティキュレーションについては、原曲表示エリアにおいて原曲データに付加的に表示され、演奏される楽器等に特有な独自のアーティキュレーションについては、アイコン貼付エリアにおいて奏法アイコンとして独自の表示がなされるので、設定中のアーティキュレーションの識別及び確認を容易に行うことができる。
【0009】
【発明の実施の形態】
以下、図面を参照しつつ、この発明の好適な実施例を詳述する。なお、以下の実施例は単なる一例であって、この発明の精神を逸脱しない範囲で種々の変更が可能である。
【0010】
〔ハードウエア構成〕
図1を参照すると、ここには、この発明の一実施例による奏法対応入力システムのハードウエア構成のブロック図が示されている。この例では、システムは、中央処理装置(CPU:central processing unit )1、タイマ2、読出専用メモリ(ROM:read only memory)3、ランダムアクセスメモリ(RAM:random access memory)4、第1の検出回路5、第2の検出回路6、表示回路7、音源回路8、効果回路9、外部記憶装置10、MIDI(Musical Instrument Digital Interface)インターフェイス(I/F)11及び通信インターフェイス12等を備え、これらの装置はバス13を介して互いに接続される。
【0011】
システム全体を制御するCPU1は、割込み処理に利用されるテンポクロックを発生するタイマ2を具備しており、所定のプログラムに従って種々の制御を行い、特に、後述する楽曲データ生成の機能を中枢的に遂行する。ROM3には、このシステムを制御するための所定の制御プログラムが記憶されており、これらの制御プログラムには、基本的な演奏情報処理と共に、この発明によるアーティキュレーション入力に関する各種処理プログラム及びデータを含ませることができる。RAM4は、これらの処理に際して必要なデータやパラメータを記憶し、また、各種レジスタやフラグ、処理中の各種データ等を一時記憶するためのワーク領域として用いられる。
【0012】
また、第1及び第2の検出回路5,6には、鍵盤14やスイッチ操作盤15が接続され、表示回路7にはディスプレイ16が接続され、効果回路9には、音源回路8からの演奏データに基づく楽音を放音することができるように、サウンドシステム17が接続されている。スイッチ操作盤15は、実演奏操作用の各種スイッチの外に、キーボードやマウス等、この発明による奏法対応入力システムの操作及び処理に必要な各種入力スイッチ類を備え、各種の指示、選択、データ入力等々の入力操作を行うことができる。
【0013】
外部記憶装置10には、ハードディスクドライブ(HDD:Hard Disk Drive )、フロッピーディスクドライブ(FDD:Floppy Disk Drive )、CD−ROM(Compact Disk Read Only Memory )ドライブ、光磁気(MO:Magneto-Optical )ディスクドライブ、DVD(Digital Video Disk)形ディジタル多目的ディスクドライブ等々、種々ある記憶装置のうちから、必要に応じて一つ又は複数の記憶装置が使用される。外部記憶装置8の記憶媒体には、この発明に用いられる種々の原曲音符データや、アーティキュレーションが付与された楽曲データを、例えば、MIDIフォーマットに従って記憶することができる。
【0014】
これらの装置1〜17によるシステムは、電子楽器の形態を採ることができるが、これに限らず、パソコン+アプリケーションソフトウェアの形態でもよい。アプリケーンョンソフトウェアは、磁気ディスク、光ディスク、半導体メモリ等の外部記憶装置の記憶媒体に記憶させ、パソコンに供給するようにしてもよいし、後述するように、ネットワークを介して供給するようにしてもよい。また、カラオケ装置に用いる楽曲データの作成等の機器にも適用できる。さらには、自動演奏ピアノに適用してもよい。
【0015】
電子楽器の形態を取った場合、その形態は図1のような鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等の形態でもよい。また、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するものであってもよい。
【0016】
この発明のシステムでは、さらに、バス13にMIDIインターフェイス(MIDI I/F)11及び通信インターフェイス12が接続され、他のMIDI機器18とMIDI形式の演奏データ等を授受することができ、また、通信ネットワーク19を介してサーバコンピュータ20と通信することができる。なお、MIDIインターフェースについては、専用のMIDIインターフェースに限らず、RS−232C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインターフェースを用いてMIDIインターフェースを構成してもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0017】
〔アーティキュレーション設定及び演奏データ生成の概略〕
さて、図2及び図3には、この発明の一実施例の奏法対応入力システムにより実行されるアーティキュレーション設定並びに演奏データ生成の概略的手法を機能的に表わすブロック図が示されており、図2が主としてデータ入力部を構成し、図3が主として音源部を構成する。この発明の実施例による手法をこの機能的ブロック図に従って説明すると、データ入力装置21は、外部記憶装置10、MIDIインターフェイス11、鍵盤14、スイッチ操作子15等から成り、主として鍵盤やMIDI機器等から原曲音符データ(ホワイトデータ)が入力される。この原曲音符データはディスプレイ16の画面上に楽譜(チャート)として表示されるが、これに対して、主としてスイッチ操作子15のキーボード乃至マウスを操作することによって、所定のアーティキュレーションを指示し、指示されたアーティキュレーションに対応する奏法アイコンを操作して楽譜にアイコンを貼り付けることができる。
【0018】
データ入力装置21からの各種入力データは、入力/命令変換部22により解読され、ノート(音符、音高)やベロシティ(演奏強度)を含む原曲音符データ(ホワイトデータ)MD、選択された楽器の種類(サックス、ギター等)やアーティキュレーションの状態(アタック、ボディ等のステート)と種類(ベンドアップ、グレースアップ等)を含むアーティキュレーション指示データAR、奏法アイコン画像に加えられるアイコン画像操作データIM等に分けられ、チャートビューワ23を介してディスプレイ24(図1では16)の画面上に、原曲楽譜(ホワイトデータ)画像やアーティキュレーション設定用画像を表示するのに用いられる。
【0019】
アーティキュレーション指示データARは、また、アイコン選択部25に入力され、これにより、RAM4(又はROM3)内のアーティキュレーション選択データ格納部26に予め記憶されているアイコン番号・楽譜記号から、データARにより指示された内容に対応する奏法アイコン乃至標準楽譜記号が選択される。この奏法アイコンの選択は、図2に示されているように、アーティキュレーション指示データARの内容に応じて、まず、全奏法アイコンの中から楽器の種類に対応する楽器対応奏法アイコン群が選択され、次に、この楽器奏法アイコン群の中からアーティキュレーション状態(ステート)に対応するステート対応奏法アイコン群が選択され、さらに、この状態奏法アイコン群の中からアーティキュレーション種類に対応する奏法アイコンが選択され、チャートビューワ23を介しディスプレイ24上には、このような選択状態及び現在選択可能な奏法アイコンが表示される。
【0020】
〔画面表示例1=3レイヤー貼付け〕
図4は、この発明の一実施例による奏法対応入力システムにおける表示画面の一例を示す。この画面表示例1においては、画面の下部が奏法アイコンウインドウになっており、画面の上部に原曲音符データMDに対応する楽譜(ホワイトデータ)が表示される。この楽譜の両側には、奏法アイコンを表示するための領域として、上側に第1及び第2レイヤーL1,L2が設けられ、下側に第3レイヤーL3が設けられ、後述するにように「3レイヤー貼付け」表示モードと呼ばれる。各レイヤーに貼付け可能な奏法アイコンの割当ての例を挙げると次のとおりである:
第1レイヤー(L1)=クレッシェンド、デクレッシェンド、
第2レイヤー(L2)=ベンドアップ、装飾音アップ/ダウン、クロマティックアップ/ダウン、グリスアップ/ダウン、スタッカート、デタッシュ、ビブラート、ベンドダウンアップ“タウア”、ショートカット、ミュート、ベンドダウン、
第3レイヤー(L3)=テヌート、スラー、ハンマリングオン、プリングオフ、スライドアップ。
【0021】
この画面表示例1では、楽譜データの第1小節においては、先頭の音符に対し「ベンドアップ」のうちの1つが第2レイヤーL2に貼り付けられ、第1小節全体に滑らかに演奏させる「スラー」アイコンが第3レイヤーL3に貼り付けられている。また、第2小節目においては、先頭の音符に対し「装飾音符(2音アップ)」アイコンが第2レイヤーL2に貼り付けられ、第2小節全体について、次第に音を大きくする「クレッシェンド」アイコンが第1レイヤーL1に貼り付けられている。
【0022】
また、奏法アイコンウインドウについては、一番外側のウインドウは、「サックス(Sax)」、「ギター(Guitr=Guiterの略)」、「ベース(Bass)」、「バイオリン(Violn=Violinの略)」等の楽器種類を表わし、対応する表記がなされたタブをクリックすることによって、何れかの楽器種類を選択することができ、図4は、現在「サックス」(Saxで表記)」が選択されていることを表示している。2番目のウインドウは、「アタック(Atack=Attackの略)」、「ボディ(Body)」、「 リリース(Reles=Releaseの略)」、「オール(All)」、「ジョイント(Joint)」等のアーティキュレーション状態即ちステートを表わし、タブをクリックすることで何れかのステートが選択可能であり、現在「アタック」(Atackで表記)」のステートを選択中であることが表示されている。
【0023】
そして、最も内側のウインドウが、「ベンドアップ(BndUp=Bend Up の略)」、「装飾音アップ(GrcUp=Grace Tone Up の略)」、「装飾音ダウン(GrcDn=Grace Tone Down の略)」、「グリッサンドアップ(GlsUp=Glissando Upの略)」、「グリッサンドダウン(GlsDn=Glissando Downの略)」等の奏法種類を表わすウインドウであり、タブをクリックすることによって、何れかの奏法種類を選択することができる。
【0024】
各奏法ウインドウ内には、所定の深さ(値ともいう。)及び長さ(スピード、時間ともいう。)をもつアーティキュレーションを表わす奏法候補アイコンが複数種表示されており、アイコン画像の上下方向及び左右方向の大きさは、アーティキュレーションの深さ及び長さに対応している。そこで、ユーザは、これらの奏法候補アイコンの中から適当なアイコンを選択することにより所望の深さと長さのアーティキュレーションを楽譜に付与することができる。
【0025】
図4においては、現在「ベンドアップ(BndUpで表記)」が選択されており、奏法種類ウインドウ内には、レイヤー番号“L2”に続いて、左から、「深く遅い」、「浅く遅い」、「深く速い」、「浅く速い」ベンドアップを夫々表わす4つのベンドアップ候補アイコンBI1〜BI4が第2レイヤー“L2”に奏法アイコンとして貼付け可能である旨表示されている。
【0026】
例えば、原曲音符データに対してアーティキュレーションARを指示すべく、図4のように、楽器“Sax”を選択した状態において、楽譜データの第1小節の先頭音符(G4)に対して「深く遅いベンドアップ」を付与したい場合には、まず、ステート“Atack”をクリックした上、奏法“BndUp”をクリックする。これによって、奏法アイコンウインドウには、4つのベンドアップ候補アイコンBI1〜BI4が表示される。そこで、最も左側の「深く遅い」ベンドアップ候補アイコンBI1をマウスでクリックしたまま、楽譜データの第1小節の先頭音符(G4)の位置にまでドラッグ&ドロップすると、図4に示すように、第2レイヤーL2の第1小節先頭音符(G4)に対応する位置に「深く遅い」ベンドアップアイコンBIdが貼り付けられる。
【0027】
さらに、楽譜データの第2小節の先頭音符(B♭4)に対して「装飾音符(2音アップ)」を付与したい場合には、まず、奏法“GrcUp”をクリックすると奏法アイコンウインドウに複数種の装飾アップアイコン(図示せず)が表示される。そこで、これらの装飾アップアイコンの中から「2音」アップの装飾アップアイコンを選択してこれをクリックし、楽譜データの第2小節の先頭音符(B♭4)の位置までドラッグ&ドロップすると、図4に示すように、第2レイヤーL2の第2小節先頭音符(B♭4)に対応する位置に所望の「2音アップ」装飾アップアイコンGIdが貼り付けられる。
【0028】
また、「レガート」を付与する場合には、ステート“Joint”をクリックした上奏法タグ“Legat”(“Joint”ステート内の奏法のため図4には示されていない)をクリックすると、奏法アイコンウインドウ“Slur”(図示せず)が現われ、このウインドウ“Slur”内には何種類かのスラー候補アイコンを表示されるので、所望のスラーアイコンをクリックしたまま、楽譜上の付与したい区間にドラッグ&ドロップすることによって、図4に示すように、第3レイヤーL3の対応する区間位置に所望のスラーアイコンSIdを貼り付けることができる。
【0029】
さらに、「クレッシェンド」を付与する場合には、ステート“All”をクリックした上奏法タグ“Crscn”(“All”ステート内の奏法のため図4には示されていない)をクリックすると、奏法アイコンウインドウ“Crscn”(図示せず)には、音を増大させるダイナミックレンジと長さに応じた何種類かのクレッシェンド候補アイコンが表示されるので、この中から所望のクレッシェンドアイコンをクリックし、楽譜上の付与したい区間にドラッグ&ドロップすることによって、図4に示すように、第1レイヤーL1の対応する区間位置に所望のクレッシェンドアイコンCIdを貼り付けることができる。
【0030】
〔奏法アイコンの伸縮編集〕
このようにして貼り付けられる各アイコンBId,GId,SId,CIdが表わすアーティキュレーションは既定の深さと長さ(スピード)を備えているが、この深さ及び長さは、ユーザにより各アイコンBId,GId,SId,CIdの画像を上下乃至左右方向に伸縮操作することによって、任意の値に編集することができる。
【0031】
例えば、画面上に既に貼り付けた奏法アイコンの左右の外枠又は端部をマウスでクリックオンしながら左右に移動させると、アイコン画像の横幅が伸縮させられ、これにより、アイコンが表わすアーティキュレーションの長さ(スピード)を変化させることができる。また、奏法アイコンの上下の外枠又は端部をマウスでクリックオンしながら上下に移動させると、アイコン画像の縦幅を伸縮させ、アーティキュレーションの深さを変化させることができる。さらに、奏法アイコンの角部(四隅)をマウスでクリックオンしながら上下左右に斜め移動させると、アイコン画像の縦横幅を伸縮させ、アーティキュレーションの深さと長さを同時に変化させることができる。
【0032】
図4の例に基づいて説明すると、レイヤーL2に最初に貼り付けられたベンドアップアイコンBIdは、奏法アイコンウインドウ内の最も左側に表示されている「深く遅い」ベンドアップアイコンBI1に対応するものとしたが、図5に示すように、アイコンBIdの上端又は下端をマウスでアイコン内側方向にドラッグしてアイコン画像を上下方向に縮めることによって、初期ベンド深さをもっと浅くして奏法アイコンウインドウ内の左から2番目の「浅く遅い」ベンドアップアイコンBI2に近づくようにすることができる。
【0033】
また、貼り付けた「深く遅い」ベンドアップアイコンBIdの左端又は右端をマウスでアイコンの内側方向にドラッグしてアイコン画像を左右方向に縮めることによって、アーティキュレーションの長さ(スピード)をもっと速くして奏法アイコンウインドウ内の左から2番目の「深く速い」ベンドアップアイコンBI3に近づくようにすることができる。さらに、アイコンBIdの外枠の角部をアイコンの内側方向にドラッグしてアイコン画像を左右、上下両方向に縮めることによって、ベンドアップのスピードを速めると同時に初期ベンド深さを浅くして奏法アイコンウインドウ内の最も右側の「浅く速い」ベンドアップアイコンBI4に近づくようにすることができる。
【0034】
なお、図5では、アイコンの縦や横方向の伸縮に応じてアイコン画像中の図形の形状も変化するようにしているが、図形の形状はそのままで、アイコン画像の外枠の大きさのみを伸縮させるようにしてもよい。また、アイコンの伸縮可能範囲には所定の上下限があってもよい。例えば、「深く遅い」アイコンは「深く速い」アイコンの速さ(横方向範囲)以上には縮めることができないようにしてもよい。
【0035】
〔画面表示例2〕
図6は、この発明による一実施例の奏法対応入力システムにおける表示画面の他の例を示す。この画面表示例2においては、奏法アイコンを表示するための領域が原曲音符データ表示域の一方側に1レイヤーだけ設けられ、一部のアーティキュレーション(奏法)についてはアイコンではなく従来形の表記が採用され、「1レイヤー+従来表記」表示モードと呼ばれる。
【0036】
この表示モードでは、図4の画面表示例1のような「3レイヤー貼付け」時に比べると、第1及び第3レイヤーL1,L3がなくなり、代わりに、第1及び第3レイヤーL1,L3に表示されていた「クレッシェンド」アイコンCId及び「スラー」アイコンSIdが、アーティキュレーション選択データ格納部26の標準楽譜記号を参照することにより、原曲楽譜中に従来表記CSd,SSdで表示される。しかしながら、その他の点は、「3レイヤー」表示モードと格別相違するところはない。なお、第1又は第3レイヤーに貼付け可能として先に例示した奏法は、全て従来表記に代えることができ、また、第2レイヤー(L2)に貼付け可能な「装飾音アップ/ダウン」、「クロマティックアップ/ダウン」、「グリスアップ/ダウン」、「スタッカート」、「デタッシュ」等も、従来表記を採用することができる。
【0037】
〔入力データの試聴及び記録〕
このように、奏法アイコンを原曲音符データMDに貼り付けることによってアーティキュレーションデータ指示データARが与えられ、また、貼り付けられた奏法アイコン画像を上下乃至左右方向に伸縮することによってアイコン画像操作データIMが与えられると、図2に示すように、アイコン選択部25により、画面上で貼付けがなされた奏法アイコンに対応してアイコン番号IP1が選択されると共に、アイコン編集値計算部27によって、アイコンの伸縮編集によるアイコン伸縮値(編集値)IV1が計算される。また、ノート/ベロシティ検出部28からは、入力された原曲音符データMDのノート(音符)及びベロシティを表わす原曲パラメータMP1が得られる。
【0038】
これらのデータIP1,IV1,MP1は、データ記録部29を介し、原曲音符データの進行に合わせてシーケンスメモリ30に演奏用シーケンスデータとして記録され、メモリ30に記録された演奏用シーケンスデータ(IP2,IV2,MP2)は、必要に応じてデータ再生部31より再生することができる。従って、アイコン番号IP1を選択しアイコン画像を伸縮値IV1で編集して試聴ボタン(図示せず)を操作することにより、アーティキュレーション設定編集中の楽曲の内容を図3に示される音源部から発生させてこれを試聴することができる。また、アーティキュレーション設定が完了した場合には、シーケンスメモリ30に記憶されたアイコン番号IP2、アイコン伸縮値IV21に基づいてアーティキュレーションが付加された楽曲を図3の音源部を介して発生させることができる。
【0039】
〔奏法パラメータの階層構造〕
図7には、この発明の一実施例による奏法対応入力システムで用いられる奏法パラメータの階層構造の一例が、図4及び図6と同様に、タグ付きフォルダの形式で示されている。奏法パラメータは、「サックス(Sax)」、「ギター(Guitr)」、「ベース(Bass)」、「バイオリン(Violn)」等の楽器種類に大きく分類され、次いで、各楽器種類の中は、「アタック(Atack)」、「ボディ(Body)」、「 リリース(Reles)」、「オール(All)」、「ジョイント(Joint)」等のステートに分類されている。さらに、各ステートの中は、楽器種類及びステートに応じて、複数の奏法種類に分類されており、例えば、「サックス」の「アタック」ステートでは、図7に示されるように、「ベンドアップ(BndUp)」、「装飾音アップ(GrcUp)」、「装飾音ダウン(GrcDn)」、「グリッサンドアップ(GlsUp)」、「グリッサンドダウン(GlsDn)」等の奏法種類が分類されている。
【0040】
各奏法種類の中は、アイコン番号が夫々付けられた複数の奏法アイコンに分類されており、例えば、図4及び図6のベンドアップアイコンBI1〜BI4は、図7の奏法アイコンタブ“BndUp #000”〜“BndUp #003”に対応する。各奏法アイコンの中は、複数のノートナンバ(ノートナンバグループ)に分類され、1つの奏法の中でノートナンバによるバンク分けがなされている。さらに、各ノートナンバ(ノートナンバグループ)の中は、複数のベロシティ(ベロシティグループ)に分類され、ベロシティによるバンク分けがなされている。そして、各ベロシティの中に、テンプレート(TM)、低周波発振器(LFO)、エンベロープ発生器(EG)、オフセット(OST)等のパラメータ種類毎に、実奏法パラメータへのポインタが記憶されており、バンク毎にどの奏法パラメータを使用するかをポインタで示すようにしている。
【0041】
なお、奏法パラメータの階層構造は、図7の示される構造に限らない。例えば、奏法アイコンの中を「奏法アイコン>ベロシティによるバンク分け>ノートナンバによるバンク分け」としてもよいし、ベロシティやノートナンバによるバンク分けを楽器種類よりも上位の階層としてもよい。或いは、パンク分けを(ノートナンバ,ベロシティ)の2次元空間上で行い、2次元空間の各エリアを各バンクに対応させるようにしてもよい。
【0042】
〔実奏法パラメータ〕
図8には、この発明の一実施例による奏法対応入力システムで用いられる実奏法パラメータの記憶形式の一例が示されており、音高(Pitch)、音色(Timbre)、振幅(Amp.)等の奏法パラメータが、単純な番号順に記憶されている。これらの奏法パラメータにおいて、パラメータ種類「テンプレート」(“TM”)は、その値が時間的に変化する時系列的なパラメータである。一方、パラメータ種類「低周波発振器」(“LFO”)、「エンベロープ発生器」(“EG”)、「オフセット」(“OST”)は、その値が時間的に変化しない固定的なパラメータである。
【0043】
図9は、各奏法パラメータの「テンプレート」データを取得するためのフローである。ステップST1で各アコースティック楽器を各奏法で演奏したときの各楽音波形を入力し、ステップST2にて、各楽音波形毎に時変動する音量エンベロープ、ピッチ、フォルマント等を検出し、これらの検出データを所定のサンプリング周期でサンプリングすることにより、そのまま、音色用フィルタのカットオフ周波数やQ、ピッチ、振幅のテンプレートを生成したり、加工ステップST3を経て、人の手により若干の加工が施された同様のテンプレートを生成する。このようにして、実際のアコースティック楽器を良好に近似し得るテンプレートを生成することができる。
【0044】
図10及び図11には、この発明の一実施例における奏法アイコンと奏法パラメータとの関係が示されており、各図において、奏法アイコンの下2段の各パラメータにおける水平破線は、それぞれ、基準レベル(即ち、振幅=0、音高=ノートナンバに対応する基準ピッチ)を示している。
【0045】
図10は、ベンドアップアイコンと振幅(Amp)パラメータ及び音高(pitch)パラメータとの関係を表わす。破線内に示される基準伸縮値のベンドアップアイコンに対して、上段左右のようにアイコン画像を横方向に縮小或いは伸長すると、これに応じて振幅及び音高パラメータの時間変化は何れも図示のように進遅し、ベンドアップスピードを増加或いは減少させる。また、下段左側のようにアイコン画像を縦方向に伸長すると、これに応じて、図示のように、振幅パラメータは、変化量が増大するだけでなく、破線内に示される基準アイコンに比べて大きく形状が変化し、また、音高パラメータは、より低いスタート点から大きく増大するので、ベンドアップ深さは増大させられる。さらに、下段右側のようにアイコン画像を縦横方向に伸長すると、これに応じてパラメータは、図示のように、変化量も変化の仕方も増大するが時間変化は緩慢になり、ベンドアップ深さを増大させベンドアップスピードを減少させる。
【0046】
なお、図10のような非繰り返し特性を有する時系列パラメータを横方向に縮小或いは伸長する場合、次のような方法を採用することができる:
(1)前述のサンプリング周波数を変化させる。即ち、離散的に記憶されている時系列パラメータのパラメータ間の時間間隔隔を変化させる。
(2)前述のサンプリング周波数はそのままとし、横方向に縮小或いは伸長した場合の各サンプリングポイント毎の新たなサンプル値を演算によって求める。
ここで、前者の場合は、波形メモリ方式の音源におけるピッチ同期による波形サンプル値生成技術を応用し、後者の場合は、波形メモリ方式の音源におけるピッチ非同期による波形サンプル値生成技術を応用する(波形メモリのサンプル値の代わりに、時系列パラメータのサンプル値を適用する)ことにより、容易に実現可能である。
【0047】
図11は、ビブラートアイコンと振幅(Amp)パラメータ及び音高(pitch)パラメータとの関係を表わしており、破線内に示される規準伸縮値のビブラートアイコンに対して、上段のようにアイコン画像を横方向に伸長或いは縮小すると、これに応じてパラメータの上下動の回数が図示のように増加或いは減少し、音をふるわせるサイクル数を増加或いは減少させる。一方、下段のようにアイコン画像を縦方向に伸長或いは縮小すると、これに応じて、図示のように、両パラメータは共に増大或いは減少し、音をふるわせる度合いを増大或いは減少させる。
【0048】
なお、図11のような繰り返し特性を有する時系列パラメータを横方向に縮小或いは伸長する場合、次のような方法を採用することができる:
(1)伸長の場合は、時系列パラメータのうちの特定の一部区間或いは全区間の先頭と末尾をそれぞれループスタートポイント、ループエンドポイントとして設定し、時系列パラメータの読出しがループエンドポイントに達したらループスタートポイントに戻って読み出しを繰り返す。
(2)縮小の場合は,時系列パラメータの途中で読み出しを打ち切る。
ここで、前者の場合は、波形メモリ方式の音源におけるルーピング技術を応用することで容易に実現可能である。
【0049】
〔演奏データの生成〕
図3に戻って音源部の構成を説明すると、試聴或いは演奏指令により、アイコン選択部25、編集値計算部27及びノート/ベロシティ検出部28からのデータIP1,IV1,MP1或いはデータ再生部31からのデータIP2,IV2,MP2が図3の音源部に与えられると、原曲パラメータMP1/MP2及び楽器の種類(図示せず)によって、与えられたノート及びベロシティに合ったバンクの所定の波形データMWが、波形メモリ32から波形バンク選択部33を介して選択される。
【0050】
一方、音高(Pitch)、音色(Timbre)及び振幅(Amp.)の奏法パラメータを夫々記憶した奏法パラメータメモリ34〜36には、それぞれ、アイコンパラメータ選択部37〜39が接続される。各アイコンパラメータ選択部37〜39は、アイコン番号IP1/IP2に基づいて、選択されている奏法アイコンに対応する音高・音色・振幅パラメータを全バンク分抽出する。これに後置された各バンクパラメータ選択部40〜42は、原曲パラメータMP1/MP2(ノートナンバ及びベロシティ値)に基づいて、選択部40〜42で抽出された全バンク分のパラメータから、必要なバンクのパラメータのみを抽出する。そして、各パラメータ修正部43〜45は、アイコン伸縮データIV1/IV2に基づいて、選択部40〜41で抽出されたパラメータを修正し、修正した音高・音色・振幅パラメータPP,PT,PAを、音高・音色・振幅合成(シンセシス)部46〜48に夫々供給する。
【0051】
波形メモリ32から選択された波形データMWは、そのピッチが音高合成(シンセシス)部46にて音高パラメータPPにより制御され、続いて、その音色が音色合成(シンセシス)部47にて音色パラメータPPにより制御され,さらに、その音量が振幅合成(シンセシス)部48にて振幅パラメータPAにより制御され、サウンドシステム49から所望のアーティキュレーションが付与された演奏音が生成される。
【0052】
図12は、楽器種類毎に備えられる奏法アイコンを一覧的に例示する図である。図12に示されるように、この発明では、奏法アイコンは、演奏する楽器の種類及びステートに対応して用意される。この際、共通乃至類似のアーティキュレーションについては、1つの奏法アイコンが複数種類の楽器間で共有される。例えば、「クレッシェンド」、「デクレッシェンド」、「ビブラート」等のアイコンは4つの楽器間で共有され、「スタッカート」、「テヌート」、「スラー」等のアイコンはサックス及びバイオリンで共有される。従って、アイコン操作は共通的になり容易になる。しかしながら、同一の奏法アイコンを貼り付けても、楽器が異なれば、演奏時に選択される奏法パラメータは異なるので、楽器特有のアーティキュレーションが得られる。
【0053】
また、楽器やステートに必要とされる多様なアーティキュレーションについては、奏法アイコンが多種類用意される一方、演奏する楽器が持ち得ない不要なアーティキュレーションについては、奏法候補アイコンを表示しないようにしている。例えば、「サックス」においては、「アタック」ステートで「ベンドアップ」、「装飾音アップ」、「装飾音ダウン」等が表示されるが、ギターやベースにおける「ハンマリングオン」、「プリングオフ」等は表示されない。従って、演奏される楽器に適したアーティキュレーションを効率的に付与することができる。
【0054】
また、全楽器のアタック、ボディ及びリリースステートについては、それぞれ、「ノーマル」奏法アイコンがデフォルトで備えられており、ユーザがこれらのステートで何ら奏法アイコンを貼付け操作しない場合には、「ノーマル」奏法アイコンが自動的に画面(図4の3レイヤー表示モードでは第2レイヤーL2)上に貼付けられ、伸縮編集可能である。また、演奏に際しては、これらの「ノーマル」奏法に対応して予め定められたデフォルトパラメータが自動的に適用される。なお、これらの「ノーマル」奏法アイコンは、実際には、ディスプレイ上に貼付け表示せずに済ますこともできる。
【0055】
図13及び図14は、この発明の一実施例による奏法対応入力システムにより奏法アイコンを貼り付けたときの演奏データ(演奏用シーケンスデータ)の記憶形式の一例を示す。この例では、楽器種類はサックスであり、時刻tn1=ta1〔なお、「tn1=ta1」なる表記は、ノートとアーティキュレーションで時刻データを共有していることを意味する。〕で、原曲音符データMDの第1ノートがオンされる。これに続く3行は、第1ノートに付加されたアタックステートの奏法アイコン(具体的には、「浅く速いベンドアップ(図4の“BI4”が対応)」)の貼付け開始位置に対応する時刻tn1=ta1において、この奏法アイコンNO(番号)及び第1ノートの音高(ノートナンバ)と演奏強度(ベロシティ)に応じて選択される奏法パラメータを各合成部46〜48(図3)にセットして、対応するアーティキュレーションを開始すべきことを指示する。ここで実行されるアーティキュレーションは、第1ノートに貼り付けた奏法アイコンの伸縮編集により深さ(縦方向)と長さ(横方向)が伸縮されるが、この例では、各伸縮値=“1.0”(規準値)が記憶されており、伸縮編集されておらず、貼り付けた奏法アイコンに対して予め用意された初期値(既定値)がそのまま採用されることを示している。
【0056】
時刻tn2において、第1ノートのオフが指示される。時刻ta2及びこれに続くデータは、次の奏法アイコン(リリースステートにおいて用意されている複数の「ベンドダウン」候補アイコンの内の1つ)の貼付け開始位置に対応する時刻ta2において、この奏法アイコンNOに対応するアーティキュレーションを開始すべきことを指示している。このアーティキュレーションについては、図示の例では、スピードと深さが伸長編集され、奏法アイコンの横方向伸縮値=“1.5”、横方向伸縮値=“2.0”となっているので、貼り付けた奏法アイコンの初期値を各伸縮値分だけ修正した奏法パラメータが、各合成部46〜48にセットされ、相応するアーティキュレーションが付与される。
【0057】
時刻tn3=ta3でノートオンされる第2ノートについては、始めのアタックステートではユーザによるアイコン選択操作がなされていないので、自動的に「ノーマル」アタックのアーティキュレーションが施される。つまり、これに続く3行は、サックスの「ノーマル」アタックのデフォルトされた時刻tn3に、デフォルトアイコンNOに対応する奏法パラメータを所定の伸縮値(=“1.0”)でセットすべきことを指示する。
【0058】
その後、次の奏法アイコン(ボディステートにおける複数の「ビブラート」候補アイコンのうちの「ビブラート長=1拍で浅いビブラート」アイコン)の貼付け開始位置に対応する時点ta4から、この奏法アイコンNOに対応するアーティキュレーションを開始する旨が記憶される。このアーティキュレーションでは、一旦貼り付られた「ビブラート長=1拍で浅いビブラート」アイコンを横方向に「1.5」倍に伸長し縦方向に「0.7」倍だけ短縮する編集がなされているので、演奏に当っては、この奏法アイコンNOに対応する奏法パラメータは、ビブラート回数が1.5倍に増えビブラート深さが0.7倍の浅いものにパラメータ修正部46〜48にて修正される。
【0059】
時刻tn4においては、第2ノートのオフが指示される。そして、次のリリースステートの奏法アイコンの貼付け開始位置に対応する時刻ta5から、この奏法アイコンNOに対応するリリースアーティキュレーションが、伸縮編集による修正なく、初期値(各伸縮値=“1.0”)で実行すべきことが記憶される。以下、同様のデータ配列が順次記憶されて、楽器毎の演奏データ(演奏用シーケンスデータ)が構成される。
【0060】
なお、アーティキュレーション開始時点ta1〜ta5については、微妙な奏法アイコン貼付け開始位置をディスプレイ上で定めることが難しいので、実際には、奏法アイコンのステートに応じた基準のタイミングに自動決定される。例えば、アタックステートのアイコンであればノートオンと同時とし、ボディステートのアイコンなら、時系列的な奏法パラメータがノートオンからノートオフの中間に位置するように、ノートオンからノートオフの中間とし、リリースステートならば、消音タイミング(ノートオフ指示により楽音のリリースが開始され、その後、実質的に楽音の音量が「0」となったタイミング)と同時に時系列的なパラメータが供給し終えるようなタイミング(より具体的には、消音タイミングよりも、横方向に伸縮された時系列パラメータの長さ分だけ前のタイミング)とし、また、オールやジョイントのステートの奏法アイコンの場合には、選択された複数のノートにかかるようなタイミングとして、奏法パラメータを音源の各処理ブロック43・46〜45・48に供給する。
【0061】
また、このようにして決定したタイミングをユーザが微妙に調節できるようにしてもよい。なお、上記の例ではアタックステートの奏法アイコンについてはノートデータとタイミングが同じであったために両データで時刻データを共用していたが、各データに別個の時刻データを付与してもよい。さらに、上述したように奏法アイコン番号とその伸縮値をノートデータ中に埋め込む方式に限らず、奏法アイコン番号とその伸縮値を実際の奏法パラメータに展開した実パラメータをノートデータ中に埋め込む方式としてもよい。このようにすると、再生した演奏データを、奏法パラメータを記憶していない音源システムに供給した場合であっても、アーテイキュレーシヨンの付与された演奏が可能となる。また、両方式の間でデータの変換ができるようにしてもよい。
【0062】
〔奏法アイコンの貼付け処理フロー〕
図15及び図16は、この発明の一実施例による奏法対応入力システムにおける奏法アイコンの貼付け処理フローの一例を示し、この処理フローでは、主として、図4や図6の表示画面例1,2に示されるように、奏法アイコンを楽譜のノート(音符)にドラッグして貼り付ける処理が行われる。つまり、この処理フローは、図4の表示画面例1の「3レイヤー貼付け」に示されるように、複数のレイヤーを用いて五線譜とは別エリアに奏法アイコンを多段で表示させたり、或いは、図6の表示画面例2の「1レイヤー+従来表記」に示されるように、一部のアーティキュレーション(奏法)については五線譜面中に従来タイプの表記記号で表示させたりするものである。
【0063】
まず、ステップS1においては、ディスプレイの表示画面(図4及び図6参照)上において、編集対象となる原曲音符データMDの楽器パートに応じて楽器種類タブを選択状態とする。例えば、楽器パートが「サックス」であれば、図4及び図6の各表示例のように、自動的に楽器種類タブを“Sax”として「サックス選択状態」とする。なお、楽器種類タブの自動選択に代えて、マウスにて楽器種類タブをクリックすることで選択状態としてもよい。次に、ステップS2に進むと、所定のステート(アーティキュレーション状態)タブをクリックすることによりステートを選択する。図4及び図6の各表示例においては、“Atack”タブにより「アタック」ステートが選択されている。
【0064】
さらにステップS3に進んで、ステップS2で選択されたステートについて、ステップS1で選択された楽器種類に属するアーティキュレーション(奏法)種類タブのみが表示される。図4及び図6の各表示例では、「サックス」の「アタック」ステートの奏法種類タブとして.「ベンドアップ」、「装飾音アップ」、「装飾音ダウン」、「グリッサンドアップ」、「グリッサンドダウン」のみが表示されており、ギターやベースにおける「ハンマリングオン」、「プリングオフ」などは表示されていない。
【0065】
そこで、ステップS4において、画面に表示されている奏法種類タブの中から所望の奏法種類を選択する。図4及び図6の各表示例では、“BndUp”タブのクリックにより「ベンドアップ」の奏法種類が選択されている。ステップS5では、ステップS4で選択された奏法種類に属する奏法アイコンが奏法アイコンウインドウ内に表示され、図4及び図6の各表示例では「ベンドアップ」の奏法種類における4つのベンドアップアイコンBI1〜BI4が表示されている。
【0066】
そこで、ステップS6にて、これらのアイコン中から何れかの奏法アイコンをクリックして所望のアーティキュレーション(奏法)を選択し、ステップS7にて、アーティキュレーションを付与すべき原曲音符データMDの所定の音符に対応する画面上の所望位置に、クリックした奏法アイコンをドラッグ&ドロップする。例えば、図4及び図6の例では、左端に表示されている「深く遅いベンドアップ」アイコンBI1が選択され、原曲音符データの第1小節における先頭の音符(G4)に対応した位置にドラッグ&ドロップする。この場合、ドラッグ&ドロップする位置は、先に説明したように、表示されている楽譜の音符上であっても、また、奏法アイコンが属する何れかのレイヤー上の対応位置であってもよい。
【0067】
ステップS8においては、選択された奏法アイコンに対応するレイヤー上におけるアイコンドロップ対応位置に当該奏法アイコンが表示され、図4の表示例1のような「3レイヤー」表示モードでは、「ベンドアップ」奏法が第2レイヤーL2に属するので、第2レイヤーL2上の対応位置に「深く遅いベンドアップ」アイコンBIdが表示される。さらに、図4を用いて既に説明したように、装飾音符GIdについても第2レイヤーL2上に表示され、また、クレッシェンドCIdは第1レイヤーL1に、スラーは第3レイヤーL3に夫々表示される。
【0068】
なお、ステップS8での処理としては、ディスプレイ画面上の表示形態が図6の表示例2のような「1レイヤー+従来表記」表示モードの場合には、括弧書きで示すように、奏法アイコンによるアーティキュレーション(奏法)を標準楽譜記号のような従来タイプの表記記号により表現し得るものについては、五線譜上に表示し、それ以外の記号のみレイヤーL上に表示する。
【0069】
ステップS9においては、原曲音符データMDから、奏法アイコン(又は従来表記記号)の表示位置に対応するノート(音符)が選択される。例えば、図4及び図6に示されるベンドアップBId、装飾音アップGIdのような「アタック」や「ボディ」、「リリース」のステートについては、1音符が選択され、クレッシェンドCIdやスラーSIdのような「オール」や「ジョイント」のステートについては、奏法アイコン(又は従来表記記号)の横幅(例えば2拍長)に応じた数の音符が選択される。
【0070】
そして、ステップS10に進み、原曲音符データMD中の選択されたノートの時間位置(時刻)に応じてアイコン番号IP1及び伸縮値IV1(縦、横ともに初期値の「1.0」)が求められ、シーケンスメモリ30に、前述の基準のタイミングに対応した時刻データと共に記録される。ただし、この時間位置(時刻)に、今回選択された奏法アイコンとは共存することができないアイコンのアイコン番号が記録されている場合には、このアイコン番号を削除する。例えば、仮に「装飾アップ」を示すアイコンと「装飾ダウン」を示すアイコンのような同時には共存することができない同類の奏法を表わすアイコンの場合には、記録されているアイコンを削除し新たなアイコンが優先的に記録される。また、削除されたアイコン番号のアイコンは、表示上からも削除される。
【0071】
ステップS11においては、選択された1又は複数のノートのデータが、図3に示される音源部に供給される。つまり、ノートオンが供給された後、ノートオフまでの時間間隔をおいてノートオフが供給される。なお、選択された音符数が複数の場合には.その発生タイミングと発生順序に従って、複数のノートオン、ノートオフが供給される。
【0072】
次のステップS12に進むと、ステートに応じたタイミング(即ち、前述の基準のタイミング)で、選択された奏法アイコンに対応し、ノートナンバとベロシティにより決定されるバンクの奏法パラメータを読み出し、音源部の各処理ブロック43・46〜45・48(図3)に供給する。例えば、選択された奏法アイコンがアタックステートならノートオンと同時、ボディステートならノートオンからノートオフの中間(時系列パラメータがノートオンからノートオフの中間に位置するように)、リリースステートなら消音タイミングと同時に時系列パラメータが供給しおわるタイミングで、オールやジョイントステートなら選択された複数のノートにかかるように、奏法パラメータを音源の各ブロックへ供給する。ステップS11、S12の処理により、奏法アイコンを貼り付けた結果の楽音を試聴することができる。
【0073】
次のステップS13は、アイコン修正(編集)サブルーチンである。試聴の結果、アーティキュレーションについて多少の修正をしたいのであれば奏法アイコンの修正をすることができ、図17を用いて後で詳述されるアイコン修正サフルーチンが実行される。試聴の結果、大幅にアイコン修正をしたいのであれば、更に次のステップS14において、別の奏法アイコンを選択する。或いは、他の音符について奏法アイコンを貼り付けたいのであれば、このステップS14で、他の音符について、別の奏法アイコン又は同じ奏法アイコンを選択する。そして、ステップS6に戻り、ステップS6〜S14の処理を繰り返す。
【0074】
また、試聴の結果、異なる種類のアーティキュレーションを適用して、更に大幅に修正をしたいのであれば、ステップS15に進んで、別の奏法種類タブを選択する。或いは、他の音符について別の奏法種類の奏法アイコンを貼り付けたいのであればこのステップS15にて別の奏法種類タブを選択する。そして、ステップS4に戻り、ステップS4〜S15の処理を繰り返す。
【0075】
さらに、試聴の結果、同じ音符或いは他の音符の別のステートの奏法アイコンを貼り付けたいのであれば、ステップS16に進んで、別のステートタブを選択する。例えば、「アタック」の後、ボディを選択する。そして、ステップS2に戻り、ステップS2〜S16の処理を繰り返す。各ステートについて必要なアーティキュレーションの設定が全て完了すると、ステップS17に進む。ステップS17で処理を終了しない場合には、ステップS13に戻ってステップS13〜S17の処理を繰り返し、処理を終了するのであれば一連の処理を抜ける。
【0076】
〔アイコン修正(編集)処理ルーチン〕
図17には、この発明の一実施例による奏法対応入力システムにおけるアイコン修正(編集)処理ルーチンの一例が示されている。この処理ルーチンでは、ディスプレイの各レイヤー上に貼り付けられた奏法アイコンの画像を左右乃至上下方向に伸縮することによりアーティキュレーションの深さ及び長さ(スピード)を修正する処理が行われる。
【0077】
まず、ステップS21において、レイヤー上の奏法アイコン(「レイヤー+従来表記」表示モードにおける標準楽譜記号を含む)に対して伸縮操作があるか否かが判断され、伸縮操作がない場合には直ちに処理を終了する。一方、アイコンの伸縮操作があれば、その種類を判別する。例えば、奏法アイコンの上端/下端をクリックした後上下方向にドラッグした場合は上下方向にアイコンが伸縮され、アイコンの右端/左端をクリックした後左右方向にドラッグした場合は左右方向にアイコンが伸縮される。また、奏法アイコンの何れかの角をクリツクした後斜め方向にドラツグした場合には、上下方向、左右方向共にアイコンが伸縮される。
【0078】
奏法アイコンが上下方向に伸縮操作された場合には、ステップS22に進んで、縦方向のアイコン伸縮値を求める。一方、奏法アイコンが左右方向に伸縮操作された場合には、ステップS23に進んで、横方向のアイコン伸縮値を求める。また、奏法アイコンが左右及び上下両方向に伸縮操作された場合には、ステップS24に進んで、横方向のアイコン伸縮値及び縦方向のアイコン伸縮値を求める。
【0079】
ステップS22〜S24のアイコン伸縮値を求める処理を終えると、ステップS25に進み、演奏データ中のアイコン伸縮値を修正し、ステップS26,S27へと進んでいく。ステップS26では、伸縮操作されたアイコンに対応した1つ乃至複数のノートを選択し、ステップS11と同様に、選択された1又は複数のノートのデータが、図3に示される音源部に供給され、ステップS27では、ステップS12と同様に、ステートに応じたタイミングで、選択された奏法アイコンに対応し、ノートナンバとベロシティにより決定されるバンクの奏法パラメータを読み出し、アイコン伸縮値とともに、音源部の各処理ブロック43・46〜45・48(図3)に供給する。
【0080】
〔リアルタイム演奏への対応〕
これまでの説明では、マウスを用いて奏法アイコンを選択し選択された奏法アイコンを伸縮する編集を行うものであった。しかしながら、操作が容易なアイコン切換えスイッチを設けておき、上述の奏法アイコンの選択及び編集に相当する情報を、アイコン切り換えスイッチを用いてアルタイムに入力することによって、原曲音符データと共にリアルタイムで入力することにより、リアルタイム演奏に対応したアーティキュレーシヨン演奏を合成することができる。
【0081】
〔作用および効果〕
以上説明したように、この発明によると、原曲データに種々のアーティキュレーションを付与するに当り、アーティキュレーションのそれぞれを「アイコン」という形で予め登録しておき、ディスプレイに表示される原曲データの楽譜上にこれらのアイコンを貼り付けていくという極く簡単な操作を行うだけで、所望のアーティキュレーションを高品位にしかも効率よく合成することができる。
【0082】
この発明では、ディスプレイ上に、原曲データが表示される原曲表示エリアに並行して複数のレイヤーが設けられ、また、奏法アイコンは、似たアーティキュレーション(奏法)を表わすグループに予め分類されており、奏法アイコンがユーザにより選択されると、この分類に基づいて、各レイヤーに特定の類似した奏法アイコンが貼り付け表示されるようになっているので、アーティキュレーションの設定状態を容易に認識することができる。
【0083】
この発明では、さらに、表示画面に原曲表示エリアとアイコン貼付エリアとが設けられ、通常使用される標準的な楽譜記号で表わし得るアーティキュレーションについては、原曲表示エリアにおいて原曲データに付加的に表示され、演奏される楽器等に特有な独自のアーティキュレーションについては、アイコン貼付エリアにおいて奏法アイコンとして表示されるので、アーティキュレーションの識別及び確認を容易に行うことができる。
【図面の簡単な説明】
【図1】図1は、この発明の一実施例による奏法対応入力システムのハードウエア構成を示すブロック図である。
【図2】図2は、この発明の一実施例による奏法対応入力システムの機能的ブロック図の一部である。
【図3】図3は、この発明の一実施例による奏法対応入力システムの機能的ブロック図の他部である。
【図4】図4は、この発明の一実施例における表示画面の一例を示す図である。
【図5】図5は、この発明の一実施例における奏法アイコンの伸縮編集を説明するための図である。
【図6】図6は、この発明の一実施例における表示画面の他の例を示す図である。
【図7】図7は、この発明の一実施例における奏法パラメータの階層構造の一例を示す図である。
【図8】図8は、この発明の一実施例における実奏法パラメータを説明するための図である。
【図9】図9は、この発明の一実施例における奏法パラメータのテンプレート生成フローを表わす図である。
【図10】図10は、この発明の一実施例における奏法アイコンと奏法パラメータとの関係の一例を示す図である。
【図11】図11は、この発明の一実施例における奏法アイコンと奏法パラメータとの関係の他の例を示す図である。
【図12】図12は、この発明の一実施例における楽器毎に用意される奏法アイコンの一例を示す図である。
【図13】図13は、この発明の一実施例における奏法アイコン貼付け時の演奏データの記憶形式の一例を示す図の一部である。
【図14】図14は、この発明の一実施例における奏法アイコン貼付け時の演奏データの記憶形式の一例を示す図の他部である。
【図15】図15は、この発明の一実施例による奏法アイコン貼付け処理フローを示す図の一部である。
【図16】図16は、この発明の一実施例による奏法アイコン貼付け処理フローを示す図の他部である。
【図17】図17は、この発明の一実施例におけるアイコン修正(伸縮編集)処理ルーチンを示す図である。
【符号の説明】
MD 原曲音符データ、
AR アーティキュレーション指示データ、
IM アイコン画像操作データ、
25 アイコン選択部、
26 アーティキュレーション選択データ格納部、
32 波形メモリ、
34 音高合成用奏法パラメータメモリ、
35 音色合成用奏法パラメータメモリ、
36 振幅合成用奏法パラメータメモリ、
L1〜L3 奏法アイコン貼付け用第1〜第3レイヤー、
BI1〜BI4 奏法(ベンドアップ)候補アイコン、
CId,BId,GId,SId 貼り付けられた奏法アイコン、
CSd,SSd 従来タイプの標準楽譜記号。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance style compatible input system and a recording medium thereof. More specifically, the present invention relates to an interactive performance method-compatible input system for inputting articulation to original musical note data using icons and a recording medium thereof.
[0002]
[Prior art]
When you actually play a musical instrument, for example, you can perform a performance that raises the pitch (pitch) from below the original sound by “bend up”, decorate the original sound with “decoration sound”, or “ Various performance methods are used, such as making the sound vibrate and smoothly connecting the sounds with legato. In the prior art, in order to realize such a rendition style, for example, for articulation data representing such a rendition style with respect to white data in MIDI format, for each rendition style, a predetermined time unit is provided. However, despite the fact that the work of sequentially writing was performed and a great deal of labor was required, it was not possible to synthesize realistic articulations with high quality and efficiency.
[0003]
[Problems to be solved by the invention]
The present invention uses a performance style icon corresponding to articulation, gives an equivalent high quality performance expression of an acoustic instrument to original music data, and synthesizes realistic articulation with high quality and efficiency. The main object of the present invention is to provide a rendition style compatible input system that can effectively display a rendition style icon for imparting a desired articulation. To do.
[0004]
[Means for Solving the Problems]
According to the main feature of the present invention, display means for displaying performance data icons representing original music data and articulation added to the original music data, means for pasting performance style icons to the displayed original music data, And means for generating performance data by adding articulation to the original music data in accordance with the pasted performance style icon, and the display screen of the display means has an original music display area where the original music data is displayed. In parallel, a rendition style-compatible input system is provided in which a plurality of layers on which each specified type of rendition style icon is pasted and displayed are provided, and each layer represents a rendition style that represents similar articulations that do not compete with each other. An icon can be pasted.
[0005]
According to another feature of the present invention, display means for displaying performance data icons representing original music data and articulation added to the original music data, and means for pasting performance performance icons to the displayed original music data And a means for generating performance data by adding articulation to the original music data according to the pasted performance style icon, and a display screen of the display means for displaying the original music data area And an icon pasting area for displaying pasted performance type icons pasted, and for pasted performance type icons outside the specified type, corresponding musical score symbols are additionally displayed in the original music data. A rendition style input system is provided. In the present invention, the time-series musical sound parameters obtained by analyzing the musical sound waveform of the musical instrument are used as the expression data for providing articulation.
[0006]
[Action]
According to the feature of the present invention, when various articulations are given to the original musical note data, not only a musical score symbol indicating each articulation is prepared, but each articulation is designated as “ By simply registering in advance in the form of “icons” and pasting these icons on the score of the original musical note data displayed on the display, the desired articulation can be enhanced. It can be synthesized efficiently with high quality.
[0007]
According to the present invention, a plurality of layers are provided on the display in parallel with the original song display area where the original song data is displayed, and the performance style icons are arranged in groups representing similar articulations (performance styles). When a performance style icon is selected in advance and selected by the user, a specific similar performance style icon is pasted and displayed on each layer based on this classification. Can be easily recognized.
[0008]
In the present invention, an original music display area and an icon pasting area are provided on the display screen of the display means, and articulations that can be represented by standard musical score symbols that are normally used are stored in the original music data in the original music display area. Additional articulations that are specific to the instrument that is displayed and played are uniquely displayed as performance style icons in the icon affixing area, making it easy to identify and confirm the articulation being set It can be carried out.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and various modifications can be made without departing from the spirit of the present invention.
[0010]
[Hardware configuration]
Referring to FIG. 1, there is shown a block diagram of a hardware configuration of a performance style-compatible input system according to an embodiment of the present invention. In this example, the system includes a central processing unit (CPU) 1, a timer 2, a read only memory (ROM) 3, a random access memory (RAM) 4, a first detection. Circuit 5, second detection circuit 6, display circuit 7, sound source circuit 8, effect circuit 9, external storage device 10, MIDI (Musical Instrument Digital Interface) interface (I / F) 11, communication interface 12, etc. These devices are connected to each other via a bus 13.
[0011]
The CPU 1 that controls the entire system includes a timer 2 that generates a tempo clock used for interrupt processing, and performs various controls according to a predetermined program. Carry out. The ROM 3 stores predetermined control programs for controlling this system. These control programs include various processing programs and data related to articulation input according to the present invention, as well as basic performance information processing. Can be included. The RAM 4 stores data and parameters necessary for these processes, and is used as a work area for temporarily storing various registers and flags, various data being processed, and the like.
[0012]
A keyboard 14 and a switch operation panel 15 are connected to the first and second detection circuits 5 and 6, a display 16 is connected to the display circuit 7, and a performance from the tone generator circuit 8 is connected to the effect circuit 9. A sound system 17 is connected so that a musical sound based on data can be emitted. The switch operation panel 15 is provided with various input switches necessary for the operation and processing of the performance system input system according to the present invention, such as a keyboard and a mouse, in addition to various switches for actual performance operations. Input operations such as input can be performed.
[0013]
The external storage device 10 includes a hard disk drive (HDD), a floppy disk drive (FDD), a compact disk read only memory (CD-ROM) drive, a magneto-optical (MO) disk. Among various storage devices such as a drive, a DVD (Digital Video Disk) type digital multipurpose disk drive, etc., one or a plurality of storage devices are used as required. The storage medium of the external storage device 8 can store various original musical note data used in the present invention and music data to which articulation is applied, for example, according to the MIDI format.
[0014]
The system using these devices 1 to 17 can take the form of an electronic musical instrument, but is not limited thereto, and may be in the form of a personal computer + application software. The application software may be stored in a storage medium of an external storage device such as a magnetic disk, an optical disk, or a semiconductor memory, and supplied to a personal computer, or supplied via a network as will be described later. Also good. Moreover, it is applicable also to apparatuses, such as preparation of the music data used for a karaoke apparatus. Furthermore, you may apply to an automatic performance piano.
[0015]
When taking the form of an electronic musical instrument, the form is not limited to the keyboard musical instrument as shown in FIG. 1, but may be a string musical instrument type, a wind instrument type, a percussion instrument type, or the like. In addition, the sound source device, the automatic performance device, etc. are not limited to those built in one electronic musical instrument body, but each is a separate device, and each device is connected using communication means such as MIDI or various networks. There may be.
[0016]
In the system of the present invention, a MIDI interface (MIDI I / F) 11 and a communication interface 12 are further connected to the bus 13, so that performance data in MIDI format can be exchanged with other MIDI devices 18, and communication is also possible. Communication with the server computer 20 is possible via the network 19. Note that the MIDI interface is not limited to a dedicated MIDI interface, but may be configured using a general-purpose interface such as RS-232C, USB (Universal Serial Bus), IEEE 1394 (Eye Triple E 1394), or the like. Good. In this case, data other than MIDI messages may be transmitted and received simultaneously.
[0017]
[Outline of articulation setting and performance data generation]
FIGS. 2 and 3 are block diagrams functionally showing a schematic method of articulation setting and performance data generation executed by the rendition style input system of one embodiment of the present invention. 2 mainly constitutes a data input unit, and FIG. 3 mainly constitutes a sound source unit. The method according to the embodiment of the present invention will be described with reference to this functional block diagram. The data input device 21 includes an external storage device 10, a MIDI interface 11, a keyboard 14, a switch operator 15, and the like, mainly from a keyboard, a MIDI device, and the like. Original musical note data (white data) is input. The original musical note data is displayed as a musical score (chart) on the screen of the display 16. On the other hand, a predetermined articulation is instructed mainly by operating the keyboard or mouse of the switch operator 15. The icon can be pasted on the score by operating the performance style icon corresponding to the instructed articulation.
[0018]
Various input data from the data input device 21 are decoded by the input / command conversion unit 22, and original musical note data (white data) MD including notes (notes, pitches) and velocities (performance intensity), the selected instrument The articulation instruction data AR, including the type (sax, guitar, etc.), articulation state (attack, body, etc.) and type (bend up, grace up, etc.), icon image operation added to the rendition style icon image It is divided into data IM and the like, and is used to display an original musical score (white data) image and an articulation setting image on the screen of the display 24 (16 in FIG. 1) via the chart viewer 23.
[0019]
The articulation instruction data AR is also input to the icon selection unit 25, whereby data is obtained from the icon number / score symbol stored in advance in the articulation selection data storage unit 26 in the RAM 4 (or ROM 3). A rendition style icon or standard musical score symbol corresponding to the content designated by the AR is selected. As shown in FIG. 2, the rendition style icon is selected according to the contents of the articulation instruction data AR. First, the rendition style icon group corresponding to the instrument type is selected from all rendition style icons. Next, a state-compatible performance style icon group corresponding to the articulation state (state) is selected from the instrument performance style icon group, and a performance style corresponding to the articulation type is selected from the state performance style icon group. An icon is selected, and such a selection state and currently selectable performance style icons are displayed on the display 24 via the chart viewer 23.
[0020]
[Screen display example 1 = 3 layers pasted]
FIG. 4 shows an example of a display screen in the rendition style compatible input system according to one embodiment of the present invention. In this screen display example 1, the lower part of the screen is a rendition style icon window, and the score (white data) corresponding to the original musical note data MD is displayed at the upper part of the screen. On both sides of the score, first and second layers L1 and L2 are provided on the upper side and a third layer L3 is provided on the lower side as areas for displaying performance icons. This is called “paste layer” display mode. The following is an example of how to assign performance icons that can be pasted to each layer:
First layer (L1) = Crescendo, Decrescendo,
Second layer (L2) = bend up, decoration up / down, chromatic up / down, grease up / down, staccato, detash, vibrato, bend down up “tauer”, shortcut, mute, bend down,
3rd layer (L3) = tenuto, slur, hammering on, pulling off, slide up.
[0021]
In this screen display example 1, in the first measure of the score data, one of the “bend-up” is pasted on the second layer L2 with respect to the first note, and the “slur” is performed smoothly on the entire first measure. Icon is pasted on the third layer L3. In the second measure, a “decoration note (2 note up)” icon is pasted on the second layer L2 with respect to the first note, and a “crescendo” icon for gradually increasing the sound of the entire second measure is displayed. Affixed to the first layer L1.
[0022]
As for the rendition style icon window, the outermost windows are “Sax”, “Guitar” (Guitr = Guiter), “Bass”, “Violin (Violin = Violin)”. Can be selected by clicking the tab with the corresponding notation, and FIG. 4 shows that “Sachs” (indicated by Sax) is currently selected. Is displayed. The second window is “Attack” (abbreviation of Attack = Attack), “Body”, “Release (abbreviation of Release = Release)”, “All”, “Joint”, etc. The state indicates an articulation state, that is, any state can be selected by clicking on the tab, and it is displayed that the state of “attack” (indicated by Attack) is currently being selected.
[0023]
The innermost windows are “bend up (abbreviation of BndUp = Bend Up)”, “decoration sound up (abbreviation of GrcUp = Grace Tone Up)”, “decoration sound down (abbreviation of GrcDn = Grace Tone Down)”. , "Glissando (GlsUp = Glissando Up)", "Glissando Down (GlsDn = Glissando Down)" and other window styles are displayed. can do.
[0024]
In each rendition style window, a plurality of rendition style candidate icons representing articulations having a predetermined depth (also referred to as value) and length (also referred to as speed or time) are displayed. The size in the direction and the horizontal direction correspond to the depth and length of the articulation. Therefore, the user can add an articulation having a desired depth and length to the score by selecting an appropriate icon from these performance style candidate icons.
[0025]
In FIG. 4, “bend up (indicated by BndUp)” is currently selected, and in the rendition style type window, following the layer number “L2”, from the left, “deep and slow”, “shallow and slow”, Four bend-up candidate icons BI1 to BI4 each representing “deep and fast” and “shallow and fast” bend-up are displayed on the second layer “L2” as pasteable style icons.
[0026]
For example, in order to indicate the articulation AR for the original musical note data, with the instrument “Sax” selected as shown in FIG. 4, “1” for the first note (G4) of the first measure of the musical score data. In order to give “deep and slow bend-up”, first, the state “Attack” is clicked, and then the performance method “BndUp” is clicked. As a result, four bend-up candidate icons BI1 to BI4 are displayed in the rendition style icon window. Therefore, when the leftmost “deep and slow” bend-up candidate icon BI1 is clicked with the mouse and dragged and dropped to the position of the first note (G4) of the first measure of the score data, as shown in FIG. A “deep and slow” bend-up icon BId is pasted at a position corresponding to the first measure first note (G4) of the second layer L2.
[0027]
Furthermore, when “decoration note (2 notes up)” is to be added to the first note (B ♭ 4) of the second measure of the score data, first, when a performance style “GrcUp” is clicked, a plurality of performance style icon windows are displayed. The decoration up icon (not shown) is displayed. So, select the “2 note up” decoration up icon from these decoration up icons, click on it, and drag and drop it to the first note (B ♭ 4) position of the second measure of the score data. As shown in FIG. 4, a desired “2 note up” decoration up icon GId is pasted at a position corresponding to the second measure first note (B ♭ 4) of the second layer L2.
[0028]
In addition, when “legato” is added, a rendition style icon “Legat” (not shown in FIG. 4 because of a rendition in the “Joint” state) is clicked when a rendition style tag “Legat” is clicked. A window “Slur” (not shown) appears, and several kinds of slur candidate icons are displayed in this window “Slur”. Click and drag the desired slur icon to the section you want to add on the score. By & dropping, as shown in FIG. 4, a desired slur icon SId can be pasted at the corresponding section position of the third layer L3.
[0029]
Further, in the case of adding “crescendo”, when the rendition style tag “Crscn” (not shown in FIG. 4 because of the rendition in the “All” state) is clicked, the rendition style icon is clicked. In the window “Crscn” (not shown), several types of crescendo candidate icons corresponding to the dynamic range and length for increasing the sound are displayed. As shown in FIG. 4, a desired crescendo icon CId can be pasted at the corresponding section position of the first layer L1 by dragging and dropping to the section to be assigned.
[0030]
[Expandable editing of rendition style icons]
The articulation represented by the icons BId, GId, SId, and CId pasted in this way has a predetermined depth and length (speed). The depth and length are determined by the user according to the icons BId. , GId, SId, and CId images can be edited to arbitrary values by expanding and contracting in the vertical and horizontal directions.
[0031]
For example, if you move the left or right outer frame or edge of a performance icon that has already been pasted on the screen to the left or right while clicking on it with the mouse, the width of the icon image will be expanded or contracted, which will cause the articulation that the icon represents The length (speed) can be changed. Further, when the upper and lower outer frames or edges of the performance style icon are moved up and down while clicking on with the mouse, the vertical width of the icon image can be expanded and contracted, and the depth of articulation can be changed. Furthermore, when the corners (four corners) of the rendition style icon are obliquely moved up, down, left, and right while clicking on with the mouse, the vertical and horizontal widths of the icon image can be expanded and contracted, and the depth and length of the articulation can be changed simultaneously.
[0032]
Referring to the example of FIG. 4, the bend-up icon BId that is first pasted on the layer L2 corresponds to the “deep and slow” bend-up icon BI1 displayed on the leftmost side in the rendition style icon window. However, as shown in FIG. 5, by dragging the upper or lower end of the icon BId in the direction of the icon with the mouse to shrink the icon image in the vertical direction, the initial bend depth is further reduced, and the rendition style icon window The second “shallow and slow” bend-up icon BI2 from the left can be approached.
[0033]
Also, by dragging the left or right edge of the pasted “deep and slow” bend-up icon BId with the mouse toward the inside of the icon to shorten the icon image to the left or right, the articulation length (speed) is further increased. Thus, the player can approach the second “deep and fast” bend-up icon BI3 from the left in the rendition style icon window. Furthermore, by dragging the corner of the outer frame of the icon BId toward the inside of the icon and shrinking the icon image in both the left and right and up and down directions, the bend-up speed is increased and the initial bend depth is reduced to reduce the performance style icon window. The rightmost “shallow and fast” bend-up icon BI4 can be approached.
[0034]
In FIG. 5, the shape of the graphic in the icon image changes according to the expansion and contraction of the icon in the vertical and horizontal directions. However, the shape of the graphic is not changed and only the size of the outer frame of the icon image is changed. You may make it expand and contract. Further, there may be a predetermined upper and lower limit for the range of expansion and contraction of the icon. For example, the “deep and slow” icon may not be able to be reduced beyond the speed (lateral range) of the “deep and fast” icon.
[0035]
[Screen display example 2]
FIG. 6 shows another example of the display screen in the rendition style-compatible input system according to the embodiment of the present invention. In this screen display example 2, only one layer is provided on one side of the original musical note data display area for displaying performance style icons, and some articulations (performance styles) are not icons but are of a conventional type. The notation is adopted and it is called “1 layer + conventional notation” display mode.
[0036]
In this display mode, the first and third layers L1 and L3 are not present and the first and third layers L1 and L3 are displayed instead of the “3 layer pasting” as in the screen display example 1 of FIG. The “crescendo” icon CId and the “slur” icon SId that have been made are displayed in the original notation CSd and SSd in the original musical score by referring to the standard musical score symbols in the articulation selection data storage unit 26. However, there are no other differences from the “3-layer” display mode. In addition, the performance methods exemplified above as being able to be pasted on the first or third layer can be replaced with the conventional notation, and “decoration sound up / down” and “chromatic” which can be pasted on the second layer (L2). Conventional notation can also be used for “up / down”, “grease up / down”, “staccato”, “detash”, and the like.
[0037]
[Audition and recording of input data]
In this way, the articulation data instruction data AR is given by pasting the performance style icon to the original musical note data MD, and the icon image operation is performed by expanding or contracting the pasted performance style icon image vertically or horizontally. When the data IM is given, as shown in FIG. 2, the icon selection unit 25 selects the icon number IP1 corresponding to the performance style icon pasted on the screen, and the icon edit value calculation unit 27 An icon expansion / contraction value (edit value) IV1 obtained by icon expansion / contraction editing is calculated. Further, the note / velocity detection unit 28 obtains a note (note) of the input original music note data MD and an original music parameter MP1 representing the velocity.
[0038]
These data IP1, IV1, and MP1 are recorded as performance sequence data in the sequence memory 30 in accordance with the progress of the original musical note data via the data recording unit 29, and the performance sequence data (IP2) recorded in the memory 30 are recorded. , IV2, MP2) can be reproduced by the data reproducing unit 31 as necessary. Therefore, by selecting the icon number IP1, editing the icon image with the expansion / contraction value IV1 and operating the audition button (not shown), the contents of the music being edited for articulation setting can be changed from the sound source unit shown in FIG. It can be generated and auditioned. Further, when the articulation setting is completed, a music to which articulation is added based on the icon number IP2 and the icon expansion / contraction value IV21 stored in the sequence memory 30 is generated via the sound source unit of FIG. be able to.
[0039]
[Hierarchical structure of rendition style parameters]
FIG. 7 shows an example of a hierarchical structure of rendition style parameters used in a rendition style compatible input system according to an embodiment of the present invention in the form of a tagged folder, as in FIGS. The performance parameters are roughly classified into instrument types such as “Sax”, “Guitar”, “Bass”, “Violin”, etc. It is classified into states such as “Attack”, “Body”, “Reles”, “All”, and “Joint”. Further, each state is classified into a plurality of performance style types according to the instrument type and the state. For example, in the “attack” state of “sax”, as shown in FIG. “BndUp” ”,“ decoration sound up (GrcUp) ”,“ decoration sound down (GrcDn) ”,“ glissup (GlsUp) ”,“ glissanddown (GlsDn) ”and the like are classified.
[0040]
Each rendition style type is classified into a plurality of rendition style icons each having an icon number. For example, the bend-up icons BI1 to BI4 in FIGS. 4 and 6 are rendition style icon tabs “BndUp # 000” in FIG. "To" BndUp # 003 ". Each rendition style icon is classified into a plurality of note numbers (note number groups), and banks are divided into note numbers within one rendition style. Further, each note number (note number group) is classified into a plurality of velocities (velocity groups), and banks are divided by velocity. In each velocity, pointers to performance method parameters are stored for each parameter type such as template (TM), low frequency oscillator (LFO), envelope generator (EG), offset (OST), etc. The pointer indicates which rendition style parameter is used for each bank.
[0041]
The hierarchical structure of rendition style parameters is not limited to the structure shown in FIG. For example, the rendition style icon may be “performance style icon> bank division by velocity> bank division by note number”, or bank division by velocity or note number may be higher than the instrument type. Alternatively, puncturing may be performed on a two-dimensional space (note number, velocity) so that each area of the two-dimensional space corresponds to each bank.
[0042]
[Performance parameters]
FIG. 8 shows an example of a storage format of performance style parameters used in a performance style compatible input system according to an embodiment of the present invention, such as pitch, pitch (timbre), amplitude (Amp.), And the like. Are stored in the order of simple numbers. Among these performance style parameters, the parameter type “template” (“TM”) is a time-series parameter whose value changes with time. On the other hand, the parameter types “low frequency oscillator” (“LFO”), “envelope generator” (“EG”), and “offset” (“OST”) are fixed parameters whose values do not change with time. .
[0043]
FIG. 9 is a flow for acquiring “template” data of each performance style parameter. In step ST1, each musical sound waveform when each acoustic instrument is played in each performance method is input, and in step ST2, a volume envelope, a pitch, a formant, etc. that fluctuate for each musical sound waveform are detected, and these detected data are obtained. By sampling at a predetermined sampling period, a cut-off frequency, Q, pitch, and amplitude template of the timbre filter is generated as it is, and after processing step ST3, a slight processing is performed by human hands. Generate a template for In this way, it is possible to generate a template that can closely approximate an actual acoustic instrument.
[0044]
10 and 11 show the relationship between performance style icons and performance style parameters in one embodiment of the present invention. In each figure, horizontal broken lines in the lower two parameters of the performance style icons are reference standards. Level (that is, amplitude = 0, pitch = reference pitch corresponding to note number) is shown.
[0045]
FIG. 10 shows the relationship between the bend-up icon, the amplitude (Amp) parameter, and the pitch (pitch) parameter. When the icon image is reduced or expanded in the horizontal direction as shown in the upper left and right of the bend-up icon of the reference expansion / contraction value shown in the broken line, the time changes of the amplitude and pitch parameters are as shown in the figure. Increase or decrease the bend-up speed. Further, when the icon image is expanded in the vertical direction as in the left side of the lower row, the amplitude parameter not only increases the amount of change, but also increases compared to the reference icon shown in the broken line. Since the shape changes and the pitch parameter increases greatly from a lower starting point, the bend-up depth is increased. Furthermore, when the icon image is expanded vertically and horizontally as shown on the right side of the lower row, the amount of change and the way of changing increase accordingly, but the time change becomes slow and the bend-up depth is reduced accordingly. Increase and decrease bend up speed.
[0046]
In addition, when the time series parameter having non-repetitive characteristics as shown in FIG. 10 is reduced or expanded in the horizontal direction, the following method can be adopted:
(1) Change the sampling frequency described above. That is, the time interval between the parameters of the time series parameters stored discretely is changed.
(2) The above sampling frequency is left as it is, and a new sample value for each sampling point when it is reduced or expanded in the horizontal direction is obtained by calculation.
Here, in the former case, a waveform sample value generation technique based on pitch synchronization in a waveform memory type sound source is applied, and in the latter case, a waveform sample value generation technique based on pitch asynchrony in a waveform memory type sound source is applied (waveform This can be easily realized by applying the sample value of the time series parameter instead of the sample value of the memory.
[0047]
FIG. 11 shows the relationship between the vibrato icon, the amplitude (Amp) parameter, and the pitch (pitch) parameter. The icon image is displayed horizontally as shown in the upper part of the vibrato icon having the standard expansion / contraction value shown in the broken line. When extending or contracting in the direction, the number of vertical movements of the parameter is increased or decreased according to this, and the number of cycles in which the sound is played is increased or decreased. On the other hand, when the icon image is expanded or reduced in the vertical direction as shown in the lower part, both parameters are increased or decreased accordingly, and the degree of sounding is increased or decreased accordingly.
[0048]
In addition, when the time series parameter having repetition characteristics as shown in FIG. 11 is reduced or expanded in the horizontal direction, the following method can be adopted:
(1) In the case of expansion, the beginning and end of a specific partial section or all sections of the time series parameters are set as the loop start point and loop end point, respectively, and the reading of the time series parameters reaches the loop end point. Then return to the loop start point and repeat reading.
(2) In the case of reduction, reading is aborted in the middle of the time series parameter.
Here, the former case can be easily realized by applying a looping technique in a waveform memory type sound source.
[0049]
[Generation of performance data]
Returning to FIG. 3, the configuration of the sound source unit will be described. From the data IP1, IV1, MP1 or the data reproduction unit 31 from the icon selection unit 25, the edit value calculation unit 27, and the note / velocity detection unit 28 according to a trial listening or performance command 3 is provided to the tone generator unit of FIG. 3, the predetermined waveform data of the bank corresponding to the given note and velocity depending on the original music parameter MP1 / MP2 and the type of instrument (not shown). The MW is selected from the waveform memory 32 via the waveform bank selection unit 33.
[0050]
On the other hand, icon parameter selection units 37 to 39 are connected to performance style parameter memories 34 to 36 respectively storing performance style parameters of pitch, pitch (timbre), and amplitude (Amp.). Each icon parameter selection unit 37-39 extracts pitch, tone color, and amplitude parameters corresponding to the selected performance style icon for all banks based on the icon numbers IP1 / IP2. The bank parameter selectors 40 to 42 placed after this are necessary from the parameters for all banks extracted by the selectors 40 to 42 based on the original music parameters MP1 / MP2 (note number and velocity value). Only the parameters of the correct bank are extracted. Then, each of the parameter correction units 43 to 45 corrects the parameters extracted by the selection units 40 to 41 based on the icon expansion / contraction data IV1 / IV2, and sets the corrected pitch / tone / amplitude parameters PP, PT, PA. , The tone pitch, tone color, and amplitude synthesis (synthesis) units 46 to 48 are supplied.
[0051]
The pitch of the waveform data MW selected from the waveform memory 32 is controlled by a tone pitch parameter PP at a tone pitch synthesis unit 46, and then the tone color is changed by a tone color parameter at a tone color synthesis (synthesis) unit 47. The sound volume is controlled by the PP, and the sound volume is controlled by the amplitude synthesis unit 48 by the amplitude parameter PA, and a performance sound to which a desired articulation is added is generated from the sound system 49.
[0052]
FIG. 12 is a diagram illustrating a list of performance style icons provided for each instrument type. As shown in FIG. 12, in the present invention, performance style icons are prepared corresponding to the type and state of the musical instrument to be played. At this time, for common or similar articulations, one performance style icon is shared among a plurality of types of musical instruments. For example, icons such as “crescendo”, “decrescendo” and “vibrato” are shared among four musical instruments, and icons such as “staccato”, “tenuto” and “slur” are shared between saxophone and violin. Therefore, the icon operation is common and easy. However, even if the same performance style icon is pasted, if the musical instrument is different, the performance style parameters selected at the time of performance are different, so that an articulation specific to the musical instrument can be obtained.
[0053]
In addition, a variety of performance icons are prepared for various articulations required for musical instruments and states, while performance technique candidate icons are not displayed for unnecessary articulations that a musical instrument to play cannot have. I have to. For example, in “Sax”, “Bend Up”, “Decoration Up”, “Decoration Down”, etc. are displayed in the “Attack” state, but “Hammering On” and “Pulling Off” on guitars and basses are displayed. Etc. are not displayed. Therefore, articulation suitable for the musical instrument to be played can be efficiently given.
[0054]
In addition, the attack, body, and release states of all instruments are each provided with a “normal” performance style icon by default. If the user does not paste any performance style icons in these states, the “normal” performance style is used. The icon is automatically pasted on the screen (second layer L2 in the three-layer display mode in FIG. 4), and can be expanded and contracted. Further, upon performance, default parameters predetermined in correspondence with these “normal” performance styles are automatically applied. Note that these “normal” performance style icons can actually be omitted from the display.
[0055]
13 and 14 show an example of a storage format of performance data (performance sequence data) when a performance style icon is pasted by the performance style compatible input system according to one embodiment of the present invention. In this example, the musical instrument type is saxophone, and the time tn1 = ta1 [The notation “tn1 = ta1” means that the time data is shared between the note and the articulation. ], The first note of the original musical note data MD is turned on. The next three lines indicate the time corresponding to the start position of the attack state performance icon (specifically, “shallow and fast bend-up (corresponding to“ BI4 ”in FIG. 4)”) added to the first note. At tn1 = ta1, performance style parameters selected according to the performance style icon NO (number), the pitch (note number) and performance intensity (velocity) of the first note are set in each of the synthesis units 46 to 48 (FIG. 3). To indicate that the corresponding articulation should be started. The articulation executed here is expanded / contracted in depth (vertical direction) and length (horizontal direction) by expansion / contraction editing of the performance style icon pasted on the first note. In this example, each expansion value = “1.0” (standard value) is stored, it is not stretched and edited, and the initial value (default value) prepared in advance for the pasted performance style icon is used as it is. .
[0056]
At time tn2, the first note is instructed to be turned off. The time ta2 and the subsequent data are stored at the time ta2 corresponding to the pasting start position of the next performance style icon (one of a plurality of “bend down” candidate icons prepared in the release state). Indicates that the corresponding articulation should be started. As for this articulation, in the example shown in the drawing, the speed and depth are expanded and edited, and the horizontal expansion / contraction value of the rendition style icon = “1.5” and the horizontal expansion / contraction value = “2.0”. The rendition style parameters obtained by correcting the initial values of the pasted performance style icons by the respective expansion / contraction values are set in the synthesis units 46 to 48, and the corresponding articulations are given.
[0057]
For the second note that is turned on at time tn3 = ta3, the icon selection operation by the user is not performed in the initial attack state, and therefore, the “normal” attack articulation is automatically performed. That is, the following three lines indicate that the performance parameter corresponding to the default icon NO should be set with a predetermined expansion / contraction value (= “1.0”) at the default time tn3 of the “normal” attack of the saxophone. Instruct.
[0058]
Then, from the time point ta4 corresponding to the pasting start position of the next performance style icon (“vibrato length = 1 shallow beat vibrato” icon among a plurality of “vibrato” candidate icons in the body state), this performance style icon corresponds to this performance style icon. The fact that the articulation is started is stored. In this articulation, the pasted “vibrato length = 1 beat shallow vibrato” icon is expanded by 1.5 times in the horizontal direction and shortened by 0.7 times in the vertical direction. Therefore, in the performance, the performance parameter corresponding to the performance style icon NO is set to a shallow one whose vibrato frequency is increased 1.5 times and the vibrato depth is 0.7 times. Will be corrected.
[0059]
At time tn4, an instruction to turn off the second note is given. The release articulation corresponding to the performance style icon NO starts from the time ta5 corresponding to the pasting start position of the performance style icon of the next release state, without any correction by the stretch editing, and the initial value (each stretch value = “1.0”). ")) To be executed is stored. Hereinafter, the same data arrangement is sequentially stored, and performance data (performance sequence data) for each musical instrument is configured.
[0060]
It should be noted that the articulation start time points ta1 to ta5 are determined automatically based on the reference timing according to the state of the rendition style icon because it is difficult to determine a delicate rendition style icon paste start position on the display. For example, if it is an attack state icon, it will be at the same time as note on, and if it is a body state icon, it will be in the middle from note on to note off so that the time series performance parameters are located between note on and note off, If it is in the release state, the timing at which the time-series parameters finish being supplied at the same time as the mute timing (the timing at which the release of the musical tone is started by the note-off instruction and the musical tone volume becomes substantially “0” thereafter) (More specifically, the timing before the mute timing by the length of the time-series parameter expanded or contracted in the horizontal direction). As timing for a plurality of notes, the performance parameters are assigned to each processing block 43 of the sound source. Supplied to the 6 to 45 - 48.
[0061]
Further, the user may be able to finely adjust the timing determined in this way. In the above example, the timing state playing style icon has the same timing as the note data, and thus the time data is shared by both data. However, separate time data may be assigned to each data. Furthermore, as described above, not only the method of embedding the performance style icon number and its expansion / contraction value in the note data, but also the method of embedding the actual parameter in which the performance style icon number and its expansion / contraction value are developed into the actual performance mode parameters in the note data. Good. In this way, even if the reproduced performance data is supplied to a sound source system that does not store performance style parameters, a performance with articulation can be performed. In addition, data may be converted between both types.
[0062]
[Processing icon pasting process flow]
FIGS. 15 and 16 show an example of a rendition style icon pasting process flow in the rendition style compatible input system according to one embodiment of the present invention. In this process flow, the display screen examples 1 and 2 of FIGS. As shown in the figure, a process of dragging and pasting a performance style icon to a musical note (note) is performed. In other words, as shown in “3 layers pasting” in the display screen example 1 of FIG. 4, this processing flow uses a plurality of layers to display rendition style icons in a separate area from the staff notation, As shown in “1 layer + conventional notation” in display screen example 2 in FIG. 6, some articulations (playing styles) are displayed as notation symbols of the conventional type in the staff score.
[0063]
First, in step S1, the instrument type tab is selected according to the instrument part of the original musical note data MD to be edited on the display screen (see FIGS. 4 and 6). For example, if the instrument part is “Sax”, the instrument type tab is automatically set to “Sax” and “Sax selected” as shown in the display examples of FIGS. Instead of automatic selection of the instrument type tab, it may be selected by clicking the instrument type tab with the mouse. Next, in step S2, a state is selected by clicking a predetermined state (articulation state) tab. In each display example of FIGS. 4 and 6, the “attack” state is selected on the “Attack” tab.
[0064]
In step S3, only the articulation (performance method) type tab belonging to the instrument type selected in step S1 is displayed for the state selected in step S2. In each display example of FIG. 4 and FIG. 6, as the performance type tab of the “attack” state of “sax”. Only “Bend Up”, “Decoration Up”, “Decoration Down”, “Grissando Up”, “Grissando Down” are displayed, and “Hammering On”, “Pulling Off”, etc. are displayed for guitars and basses. It has not been.
[0065]
Accordingly, in step S4, a desired performance style type is selected from the performance style tabs displayed on the screen. In each of the display examples of FIGS. 4 and 6, the “Bend Up” performance type is selected by clicking the “BndUp” tab. In step S5, the rendition style icons belonging to the rendition style type selected in step S4 are displayed in the rendition style icon window, and in each of the display examples of FIGS. BI4 is displayed.
[0066]
Therefore, in step S6, a desired articulation (performance method) is selected by clicking any one of these icons, and in step S7, original musical note data MD to which articulation is to be added is selected. Drag and drop the clicked performance style icon to the desired position on the screen corresponding to the predetermined note. For example, in the examples of FIGS. 4 and 6, the “deep and slow bend up” icon BI1 displayed at the left end is selected and dragged to the position corresponding to the first note (G4) in the first measure of the original music note data. & Drop. In this case, as described above, the drag and drop position may be on the note of the displayed musical score, or may be the corresponding position on any layer to which the rendition style icon belongs.
[0067]
In step S8, the performance style icon is displayed at the icon drop corresponding position on the layer corresponding to the selected performance style icon. In the “3-layer” display mode as shown in display example 1 in FIG. Belongs to the second layer L2, the “deep and slow bend up” icon BId is displayed at the corresponding position on the second layer L2. Further, as already described with reference to FIG. 4, the decorative note GId is also displayed on the second layer L2, the crescendo CId is displayed on the first layer L1, and the slur is displayed on the third layer L3.
[0068]
As the processing in step S8, when the display form on the display screen is the “1 layer + conventional notation” display mode as shown in display example 2 in FIG. Those that can represent articulations (representative styles) by conventional notation symbols such as standard musical notation symbols are displayed on the staff and only the other symbols are displayed on the layer L.
[0069]
In step S9, a note (note) corresponding to the display position of the performance style icon (or conventional notation symbol) is selected from the original musical note data MD. For example, in the “attack”, “body”, and “release” states such as the bend-up BId and the decoration sound-up GId shown in FIGS. 4 and 6, one note is selected, and the crescendo CId and the slur SId are used. For the “all” and “joint” states, the number of notes corresponding to the width (for example, two beats long) of the performance style icon (or conventional notation symbol) is selected.
[0070]
In step S10, the icon number IP1 and the expansion / contraction value IV1 (initial value “1.0” in both length and width) are obtained according to the time position (time) of the selected note in the original musical note data MD. The time data corresponding to the reference timing is recorded in the sequence memory 30. However, if an icon number of an icon that cannot coexist with the currently selected performance style icon is recorded at this time position (time), the icon number is deleted. For example, in the case of an icon representing a similar performance that cannot coexist at the same time, such as an icon indicating “decoration up” and an icon indicating “decoration down”, the recorded icon is deleted and a new icon is displayed. Is preferentially recorded. The icon with the deleted icon number is also deleted from the display.
[0071]
In step S11, the data of the selected one or more notes is supplied to the sound source unit shown in FIG. That is, note-off is supplied after a time interval from note-on being supplied to note-off. Note that if there are multiple notes selected. A plurality of note-on and note-off are supplied in accordance with the generation timing and generation order.
[0072]
Proceeding to the next step S12, at the timing according to the state (that is, the above-mentioned reference timing), the rendition style parameters of the bank determined by the note number and velocity corresponding to the selected rendition style icon are read out, and the sound source section Are supplied to the processing blocks 43, 46 to 45, 48 (FIG. 3). For example, if the selected rendition style icon is the attack state, it will be at the same time as the note-on, if it is the body state, it will be in the middle of the note-on to note-off (so that the time series parameters will be in the middle of the note-on to note-off), At the same time, at the timing when the time series parameters are supplied, the performance parameters are supplied to each block of the sound source so as to be applied to a plurality of selected notes in the case of all or joint state. Through the processing in steps S11 and S12, a musical tone as a result of pasting the performance style icon can be auditioned.
[0073]
The next step S13 is an icon correction (editing) subroutine. As a result of the trial listening, if the articulation is desired to be slightly modified, the rendition style icon can be modified, and an icon correction subroutine detailed later with reference to FIG. 17 is executed. As a result of the trial listening, if it is desired to significantly correct the icon, another performance style icon is selected in the next step S14. Alternatively, if a performance style icon is to be pasted for another note, another performance style icon or the same performance style icon is selected for the other note in step S14. And it returns to step S6 and repeats the process of step S6-S14.
[0074]
As a result of the trial listening, if it is desired to apply a different type of articulation and make further corrections, the process proceeds to step S15 and another performance type tab is selected. Alternatively, if it is desired to paste a performance style icon of another performance style for another note, another performance style type tab is selected in step S15. And it returns to step S4 and repeats the process of step S4-S15.
[0075]
Further, as a result of the trial listening, if it is desired to paste a performance icon of another state of the same note or another note, the process proceeds to step S16 and another state tab is selected. For example, after “attack”, a body is selected. And it returns to step S2 and repeats the process of step S2-S16. When all the necessary articulation settings are completed for each state, the process proceeds to step S17. If the process is not terminated in step S17, the process returns to step S13 to repeat the processes of steps S13 to S17. If the process is terminated, the series of processes is exited.
[0076]
[Icon correction (edit) processing routine]
FIG. 17 shows an example of an icon correction (editing) processing routine in the performance style compatible input system according to one embodiment of the present invention. In this processing routine, the articulation depth and length (speed) are corrected by expanding and contracting the performance style icon image pasted on each layer of the display in the horizontal and vertical directions.
[0077]
First, in step S21, it is determined whether or not there is an expansion / contraction operation for the performance style icon on the layer (including the standard score symbol in the “layer + conventional notation” display mode). Exit. On the other hand, if there is an icon expansion / contraction operation, the type is determined. For example, if you click the top / bottom edge of the rendition style icon and drag it up or down, the icon expands or contracts in the up / down direction. If you click the right / left edge of the icon and drag left or right, the icon expands or contracts in the left / right direction. The In addition, when clicking on any corner of the performance style icon and dragging in an oblique direction, the icon is expanded and contracted in both the vertical and horizontal directions.
[0078]
If the rendition style icon is expanded or contracted in the vertical direction, the process proceeds to step S22 to obtain the vertical icon expansion / contraction value. On the other hand, when the rendition style icon is expanded or contracted in the left-right direction, the process proceeds to step S23, and the icon expansion / contraction value in the horizontal direction is obtained. If the rendition style icon is expanded / contracted in both the left / right and up / down directions, the process proceeds to step S24 to obtain the horizontal icon expansion / contraction value and the vertical icon expansion / contraction value.
[0079]
When the process for obtaining the icon expansion / contraction value in steps S22 to S24 is completed, the process proceeds to step S25, the icon expansion / contraction value in the performance data is corrected, and the process proceeds to steps S26 and S27. In step S26, one or a plurality of notes corresponding to the expanded / contracted icon is selected, and the data of the selected one or a plurality of notes is supplied to the sound source unit shown in FIG. 3 as in step S11. In step S27, as in step S12, at the timing according to the state, the rendition style parameters of the bank determined by the note number and velocity corresponding to the selected rendition style icon are read out, along with the icon expansion / contraction value, It supplies to each processing block 43 * 46-45 * 48 (FIG. 3).
[0080]
[Support for real-time performance]
In the description so far, the rendition style icon is selected using the mouse, and the selected rendition style icon is expanded and contracted. However, an easy-to-operate icon changeover switch is provided, and information corresponding to the selection and editing of the above-mentioned performance style icons is input in real time together with the original musical note data by inputting the information in real time using the icon changeover switch. By doing so, it is possible to synthesize articulation performance corresponding to real-time performance.
[0081]
[Action and effect]
As described above, according to the present invention, when various articulations are given to original music data, each articulation is registered in advance in the form of an “icon” and displayed on the display. By simply performing an extremely simple operation of pasting these icons on the musical score, the desired articulation can be synthesized with high quality and efficiency.
[0082]
In this invention, a plurality of layers are provided on the display in parallel with the original music display area where the original music data is displayed, and the performance style icons are pre-classified into groups representing similar articulations (performance styles). When a rendition style icon is selected by the user, a specific similar rendition style icon is pasted and displayed on each layer based on this classification, so the articulation setting status is easy Can be recognized.
[0083]
In the present invention, an original music display area and an icon pasting area are further provided on the display screen, and articulations that can be represented by standard musical score symbols that are normally used are added to the original music data in the original music display area. The unique articulations that are displayed and played and are specific to the instrument to be played are displayed as performance style icons in the icon pasting area, so that the articulation can be easily identified and confirmed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a performance style compatible input system according to an embodiment of the present invention;
FIG. 2 is a part of a functional block diagram of a performance style-compatible input system according to an embodiment of the present invention.
FIG. 3 is another part of the functional block diagram of the rendition style-compatible input system according to one embodiment of the present invention.
FIG. 4 is a diagram showing an example of a display screen in one embodiment of the present invention.
FIG. 5 is a diagram for explaining expansion / contraction editing of performance style icons according to an embodiment of the present invention.
FIG. 6 is a diagram showing another example of the display screen in one embodiment of the present invention.
FIG. 7 is a diagram showing an example of a hierarchical structure of rendition style parameters in one embodiment of the present invention.
FIG. 8 is a diagram for explaining performance method parameters in one embodiment of the present invention.
FIG. 9 is a diagram showing a template generation flow of rendition style parameters in one embodiment of the present invention.
FIG. 10 is a diagram showing an example of the relationship between rendition style icons and rendition style parameters in one embodiment of the present invention.
FIG. 11 is a diagram showing another example of the relationship between rendition style icons and rendition style parameters in one embodiment of the present invention.
FIG. 12 is a diagram showing an example of a performance style icon prepared for each musical instrument in one embodiment of the present invention.
FIG. 13 is a part of a diagram showing an example of a storage format of performance data when a performance style icon is pasted in one embodiment of the present invention.
FIG. 14 is another part of the figure showing an example of a storage format of performance data when a performance style icon is pasted in one embodiment of the present invention.
FIG. 15 is a part of a diagram showing a rendition style icon pasting process flow according to one embodiment of the present invention;
FIG. 16 is another part of the drawing showing a rendition style icon pasting process flow according to one embodiment of the present invention.
FIG. 17 is a diagram showing an icon correction (expansion / contraction edit) processing routine in one embodiment of the present invention;
[Explanation of symbols]
MD Original musical note data,
AR articulation instruction data,
IM icon image operation data,
25 Icon selection part,
26 Articulation selection data storage unit,
32 waveform memory,
34 Performance parameter memory for pitch synthesis,
35 Performance parameter memory for tone synthesis,
36 Performance parameter memory for amplitude synthesis,
L1 to L3 1st to 3rd layers for pasting performance style icons,
BI1-BI4 performance style (bend-up) candidate icons,
CId, BId, GId, SId performance style icons pasted,
CSd, SSd Conventional standard musical notation symbols.

Claims (5)

原曲データ及びこの原曲データに付加されるアーティキュレーションを表わす奏法アイコンを表示する表示手段と、
表示された原曲データに対して奏法アイコンを貼り付ける手段と、
貼り付けられた奏法アイコンに応じてアーティキュレーションを原曲データに付与し演奏データを生成する手段と
を備え、前記表示手段の表示画面には、原曲データが表示される原曲表示エリアに並行して、それぞれ特定された種類の奏法アイコンが貼り付け表示される複数のレイヤーが設けられていることを特徴とする奏法対応入力システム。
Display means for displaying original music data and performance icons representing articulations added to the original music data;
Means for pasting a performance icon on the displayed original song data;
Means for generating performance data by adding articulation to the original music data in accordance with the pasted performance style icon, and the display screen of the display means includes an original music data display area in which the original music data is displayed. In parallel, a rendition style-compatible input system is provided, in which a plurality of layers are provided on which each specified type of rendition style icon is pasted and displayed.
各レイヤーには、互いに競合しない類似のアーティキュレーションを表わす奏法アイコンが貼り付け可能であることを特徴とする請求項1に記載の奏法対応入力システム。The rendition style input system according to claim 1, wherein rendition style icons representing similar articulations that do not compete with each other can be pasted on each layer. 原曲データ及びこの原曲データに付加されるアーティキュレーションを表わす奏法アイコンを表示する表示手段と、
表示された原曲データに対して奏法アイコンを貼り付ける手段と、
貼り付けられた奏法アイコンに応じてアーティキュレーションを原曲データに付与し演奏データを生成する手段と
を備え、前記表示手段の表示画面には、原曲データが表示される原曲表示エリアと、貼り付けられた特定種類の奏法アイコンが表示されるアイコン貼付エリアとが設けられ、貼り付けられた特定種類外の奏法アイコンについては、対応する楽譜記号が原曲データに付加的に表示されることを特徴とする奏法対応入力システム。
Display means for displaying original music data and performance icons representing articulations added to the original music data;
Means for pasting a performance icon on the displayed original song data;
Means for generating performance data by adding articulation to the original music data in accordance with the pasted performance style icon, and the display screen of the display means includes an original music display area for displaying the original music data, An icon pasting area for displaying the pasted performance type icon pasted is provided, and for the pasted performance type icon outside the particular type, a corresponding musical score symbol is additionally displayed in the original music data. An input system corresponding to a rendition style.
前記アーティキュレーションを付与するための表現データは、演奏楽器の楽音波形を分析して得た時系列的な楽音パラメータであることを特徴とする請求項1乃至3の何れか1項に記載の奏法対応入力システム。4. The expression data for giving the articulation is a time-series musical sound parameter obtained by analyzing a musical sound waveform of a musical instrument. A rendition style input system. 原曲データ及びこの原曲データに付加されるアーティキュレーションを表わす奏法アイコンを表示するステップと、
表示された原曲データに対して奏法アイコンを指定するステップと、
奏法アイコンの指定に応じて、原曲データが表示される原曲表示エリアに並行して、指定された奏法アイコンを複数のアイコン貼付レイヤーに表示するか、或いは、指定された奏法アイコンのうち、特定種類の奏法アイコンについてはアイコン貼付エリアに表示し、特定種類外の奏法アイコンについては、対応する楽譜記号を原曲データに付加的表示するステップと、
貼り付けられた奏法アイコンに対応するアーティキュレーションを原曲データに付与し演奏データを生成するステップと
から成るプログラムを記録したことを特徴とする奏法対応入力システムのための記録媒体。
Displaying original music data and a performance style icon representing articulation added to the original music data;
Specifying a rendition style icon for the displayed original song data;
In accordance with the designation of the performance style icon, the designated performance style icon is displayed on a plurality of icon pasting layers in parallel with the original music display area where the original music data is displayed, or among the designated performance style icons, Displaying a specific type of performance icon in the icon pasting area, and for a non-specific type of performance icon, additionally displaying a corresponding musical score symbol in the original music data;
A recording medium for a performance style-compatible input system, comprising: a program comprising a step of generating performance data by adding articulation corresponding to a pasted performance style icon to original music data.
JP02085199A 1999-01-28 1999-01-28 Performance system compatible input system and recording medium Expired - Fee Related JP3654026B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP02085199A JP3654026B2 (en) 1999-01-28 1999-01-28 Performance system compatible input system and recording medium
DE60024157T DE60024157T2 (en) 1999-01-28 2000-01-21 Device and method for entering a style of a presentation
EP00101209A EP1026660B1 (en) 1999-01-28 2000-01-21 Apparatus for and method of inputting a style of rendition
US09/489,431 US6798427B1 (en) 1999-01-28 2000-01-21 Apparatus for and method of inputting a style of rendition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02085199A JP3654026B2 (en) 1999-01-28 1999-01-28 Performance system compatible input system and recording medium

Publications (2)

Publication Number Publication Date
JP2000221972A JP2000221972A (en) 2000-08-11
JP3654026B2 true JP3654026B2 (en) 2005-06-02

Family

ID=12038611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02085199A Expired - Fee Related JP3654026B2 (en) 1999-01-28 1999-01-28 Performance system compatible input system and recording medium

Country Status (1)

Country Link
JP (1) JP3654026B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT500124A1 (en) * 2000-05-09 2005-10-15 Tucmandl Herbert APPENDIX FOR COMPONING
KR20020016976A (en) * 2000-08-28 2002-03-07 강효경 Server, client and computer readable medium for on-line piano lesson using Internet

Also Published As

Publication number Publication date
JP2000221972A (en) 2000-08-11

Similar Documents

Publication Publication Date Title
JP3601350B2 (en) Performance image information creation device and playback device
EP1026660B1 (en) Apparatus for and method of inputting a style of rendition
US6362411B1 (en) Apparatus for and method of inputting music-performance control data
JP3728942B2 (en) Music and image generation device
JP3484988B2 (en) Performance information editing method and recording medium storing performance information editing program
US6166313A (en) Musical performance data editing apparatus and method
JP3601371B2 (en) Waveform generation method and apparatus
JP2007316269A (en) Musical sound synthesizer and program
JP3700442B2 (en) Performance system compatible input system and recording medium
JP3829780B2 (en) Performance method determining device and program
JP3654026B2 (en) Performance system compatible input system and recording medium
JP3654084B2 (en) Waveform generation method and apparatus
JP3721822B2 (en) Rendition style input system
JP3702691B2 (en) Automatic performance control data input device
JP3702690B2 (en) Automatic performance control data input device
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP3702689B2 (en) Automatic performance control data input device
JP6127549B2 (en) Music data editing method, program for realizing the music data editing method, and music data editing apparatus
JP2006350101A (en) Musical sound waveform synthesizing device
JP2003114680A (en) Apparatus and program for musical sound information editing
JP3797180B2 (en) Music score display device and music score display program
JP3562341B2 (en) Editing method and apparatus for musical sound data
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3760909B2 (en) Musical sound generating apparatus and method
JP3933162B2 (en) Waveform generation method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050221

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees