JP3755468B2 - Musical data expression device and program - Google Patents

Musical data expression device and program Download PDF

Info

Publication number
JP3755468B2
JP3755468B2 JP2002035437A JP2002035437A JP3755468B2 JP 3755468 B2 JP3755468 B2 JP 3755468B2 JP 2002035437 A JP2002035437 A JP 2002035437A JP 2002035437 A JP2002035437 A JP 2002035437A JP 3755468 B2 JP3755468 B2 JP 3755468B2
Authority
JP
Japan
Prior art keywords
data
performance
parameter
expression
music data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002035437A
Other languages
Japanese (ja)
Other versions
JP2003233374A (en
Inventor
明 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002035437A priority Critical patent/JP3755468B2/en
Publication of JP2003233374A publication Critical patent/JP2003233374A/en
Application granted granted Critical
Publication of JP3755468B2 publication Critical patent/JP3755468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、楽曲データに対して自動的に新たな音楽的な表現を付加する楽曲データの自動表情付け装置及びプログラムに関し、特に各種パラメータの調整がどのような表情の変化を生むのかをユーザが随時に確認できるようにすることで、表情付けを効率的に行うことができるようにした楽曲データの自動表情付け装置及びプログラムに関する。
【0002】
【従来の技術】
最近では、楽曲データを基にして楽音を自動演奏する自動演奏装置や、楽曲データを自動演奏したり編集することができるシーケンサー等が知られている。こうした自動演奏装置等で用いられる楽曲データは楽譜の各音符、記号に対応するMIDIデータとして構成されるが、一連の音符列の各音高をON/OFFの音高情報のみで構成すると、該楽曲データを再生することにより行われる楽音の自動演奏は機械的な無表情な演奏が行われることとなり、非常に音楽的に不自然である。そこで、こうした自動演奏をより音楽的に自然な演奏、美しい演奏、生々しい演奏とするためには、楽音に対して様々な音楽的な表情や楽器らしさの付加といった表情付けを行うとよい。そのためには、楽曲データに対して、奏法等に応じて様々な音楽的な表情や楽器らしさを表すように、一連の音符の音高、音量、音長、タイミング等に修正を加える必要がある。こうした表情付けを行うものとして、従来から楽曲データに対して様々な音楽的な表情や楽器らしさを表す演奏情報を自動的に付加する楽曲データの自動表情付け装置が知られている。こうした楽曲データの自動表情付け装置においては、ユーザがチョーキング、ビブラート、グリッサンド、スタッカート、スイング、アルペジオなどの複数種類の奏法の中から付与したい奏法を複数同時に選択することができ、選択した奏法の各々に対応する表情付けを楽曲データに対して一度に(あるいは順次に)行うことができるようになっている。例えばギターやベースなどの弦楽器において頻繁に用いられる奏法の1つであるチョーキング奏法が選択された場合には、楽曲データの中からチョーキング奏法を行うのに適した箇所を自動的に検索し、該検索箇所の楽曲データに対して予めユーザによりパラメータ調整されているピッチベンド値などの演奏情報が新たに付加される。
【0003】
【発明が解決しようとする課題】
ところで、上述したような楽曲データの自動表情付け装置では、奏法パラメータを調整することにより、ユーザ好みの音楽的な表情(奏法など)を付加することができるようになっているが、奏法パラメータを調整してから生成されるユーザ好みの表情を確認するまでに時間がかかるものであった。すなわち、従来の楽曲データの自動表情付け装置においては、自動的に検索された箇所にユーザ好みの表情付けを適用した楽曲データ全体を完成させた後にしかユーザは実際に表情付けされた音楽的表情の確認を行うことができなかった。そのため、表情付けされた楽曲が気にいらないような場合、ユーザは再度奏法パラメータの調整を行い、楽曲データ全体に対して初めから自動表情付け処理をやり直ししなければならなかった。したがって、ユーザにとって満足のいく表情付けされた楽曲を生成するためには、自動表情付け処理を繰り返し行い、ユーザ好みの表情付けを適用した楽曲データを何度も生成する必要があった。このように、従来では楽曲データに対する表情付けが自動化されてはいるが、ユーザ好みの音楽的表情を付加した楽曲データを生成する際に奏法パラメータ調整を繰り返し行った場合には自動表情付け処理も繰り返し行わなければならなかったために、自動表情付け処理は時間がかかるものであり処理効率が非常に悪かった、という問題点があった。
【0004】
本発明は上述の点に鑑みてなされたもので、ユーザ好みの表情付けを行う際に、自動表情付け処理を行う前に奏法パラメータ調整がどのような表情の変化を生むものであるのかをユーザが随時に確認することができるようにすることで、表情付け処理を効率よく実行することのできる楽曲データの自動表情付け装置及びプログラムを提供しようとするものである。
【0005】
【課題を解決するための手段】
本発明に係る楽曲データの表情付け装置は、楽曲データに対して所定の奏法に対応する音楽的な表情付けを行うための奏法パラメータを供給するパラメータ供給手段と、奏法パラメータの確認のために使用される、前記楽曲データよりも短いシーケンスデータを供給するデータ供給手段と、 前記パラメータ供給手段により供給された奏法パラメータのイメージ画像、該奏法パラメータの内容を変更するための設定用操作子画像、及びオーディション開始指示を行うための指示用操作子画像を同一の表示画面に表示し、前記設定用操作子画像の操作に応じて前記奏法パラメータの内容を変更すると共に該奏法パラメータのイメージ画像の表示形態を変化させる表示制御手段と、前記指示用操作子画像の操作に基づくオーディション開始指示に応じて、前記データ供給手段により供給されたシーケンスデータに対して前記設定用操作子画像の操作に応じて前記イメージ画像の表示形態を変化する制御がなされた前記奏法パラメータの内容に基づいて前記所定の奏法に対応する音楽的な表情を付加する付加制御手段と、前記音楽的な表情を付加されたシーケンスデータに基づき楽音を生成する楽音生成手段とを具える。
【0006】
本発明によると、楽曲データに対して所定の奏法に対応する音楽的な表情を自動的に付加する際において、オーディション開始指示に応じて奏法パラメータの確認のために使用される、前記楽曲データよりも短いシーケンスデータに対して所定の奏法に対応する音楽的な表情を付加し、該音楽的な表情を付加されたシーケンスデータに基づき楽音を生成する。従って、ユーザは奏法パラメータに基づき楽曲データ全体にわたって自動的に表情付けを行う前に、適宜に設定変更した奏法パラメータを用いて該楽曲データよりも短いシーケンスデータに基づく楽音を生成させて試験的に聴取することで、該設定変更した奏法パラメータによる楽音特性の変化を簡単かつ的確に確認することができる。これにより、効率的に楽曲データに対する表情付けを行うことができるようになる。また、その際、前記所定の奏法に対応して供給される奏法パラメータのイメージ画像、該奏法パラメータの内容を変更するための設定用操作子画像、及びオーディション開始指示を行うための指示用操作子画像を同一の表示画面に表示し、該設定用操作子画像の操作に応じて該奏法パラメータの内容を変更すると共に該奏法パラメータのイメージ画像の表示形態を変化させるようにしたので、奏法パラメータの設定変更内容を視覚的に分かり易く確認することができるものであり、加えて、同じ表示画面に表示されている指示用操作子画像を操作することで望みの時点で即座にオーディション開始指示を行うことができるので、奏法パラメータの設定変更操作とその設定変更内容に応じた演奏音の試験的聴取のためのオーディション開始指示操作とをスムーズに切り替えて行うことができ、ユーザにとって非常に使い易い装置を提供することができる。
【0007】
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
【0008】
【発明の実施の形態】
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0009】
図1は、この発明に係る楽曲データの自動表情付け装置を適用した電子楽器の実施の形態を示すハード構成ブロック図である。この実施の形態では、1個のCPU1によって各種処理を行う電子楽器を例に説明する。
【0010】
本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータの制御の下に各種の処理が実行されるようになっている。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、通信バス1D(例えば、データ及びアドレスバスなど)を介してリードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3、外部記憶装置4、検出回路5、スイッチ検出回路6、表示回路7、音源回路8、インタフェース9がそれぞれ接続されている。更に、CPU1には、タイマ割込み処理(インタラプト処理)における割込み時間や各種時間を計時するタイマ1Aが接続されている。すなわち、タイマ1Aは時間間隔を計数したり、所定の楽曲データやシーケンスデータ(後述する)などに従って楽曲を自動演奏する際の演奏テンポを設定したりするためのテンポクロックパルスを発生する。このテンポクロックパルスの周波数は、パネル操作子6Aの中の例えばテンポ設定スイッチ等によって調整される。このようなタイマ1AからのテンポクロックパルスはCPU1に対して処理タイミング命令として与えられたり、あるいはCPU1に対してインタラプト命令として与えられる。CPU1は、これらの命令に従って各種処理を実行する。各種処理としては、曲に対してより自然な演奏や生々しい演奏を行うための様々な楽器毎に特有の音楽的な表現(例えば、ギターなどの弦楽器で用いられるチョーキング奏法など)に関する演奏情報を生成し、該演奏情報を楽曲データに対して自動的に付加する「自動表情付け処理」(後述する)等がある。
【0011】
なお、楽曲データの自動表情付け装置は専用の装置に限られず、例えばパソコンなどの汎用装置あるいはマルチメディア機器等であってもよく、本発明に従う所定のソフトウエア又はハードウエアを用いることによって、楽曲データを自動的に分析し、該分析結果に基づいて所定の楽音に対する表情付けを自動的に行うことができるように構成した装置であればどのようなものであってもよい。
【0012】
ROM2は、楽曲データやシーケンスデータあるいは奏法パラメータのプリセット値などの各種データ、CPU1により実行あるいは参照される「自動表情付け処理」などの各種制御プログラムを格納するものである。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。外部記憶装置4はROM2と同様に、楽曲データやシーケンスデータあるいは奏法パラメータのプリセット値などの各種データや、CPU1が実行する各種の制御プログラム等を記憶するものである。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置4(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置4はハードディスク(HD)に限られず、フロッピィーディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の着脱自在な様々な形態の外部記録媒体を利用する記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。
【0013】
ここで、上述したROM2や外部記憶装置4あるいはRAM3などに記憶される各種データについて、簡単に説明する。まず、ROM2や外部記憶装置4に記憶されるデータについて、図2を用いて説明する。図2は、ROM2や外部記憶装置4に記憶される各種データを説明するための概念図である。この実施例に示すROM2や外部記憶装置4に記憶されるデータは、楽曲データ、奏法パラメータ、シーケンスデータ、その他のデータなどである。
【0014】
楽曲データは自動表情付けの際に演奏情報を付与する対象となるデータであり、 例えば1曲分の楽曲全体を表わすデータである。該楽曲データは、タイミングデータとイベントデータとの組み合わせからなる。イベントデータは、楽音の発音を指示するキーオンデータや楽音の消音を指示するキーオフデータ等の演奏イベントに関するデータである。このイベントデータは、タイミングデータと組み合わされて使用される。本実施例でのタイミングデータとは、イベントデータから次のイベントデータまでの時間間隔を示す時間データ(すなわち、デュレーションデータ)であるが、これに限らず相対時間あるいは絶対時間等どのようなフォーマットでもよい。すなわち、イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で楽曲データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域にイベントを記憶した『ベタ方式』形式のものなど、どのような形式のものでもよい。なお、楽曲データは複数トラック分のイベントデータが混在して記録されているもの、すなわち、イベントデータをその割り当てられたトラックにかかわらず出力順に1列に並べて記憶しているものに限らず、各イベントデータを各トラック毎に独立して記憶するように楽曲データを構成してもよいことは言うまでもない。
【0015】
奏法パラメータは楽曲データに対する自動表情付けの際に用いられるデータであり、チョーキング、ビブラート、スタッカート、グリッサンドなどの各奏法毎に対応するように用意される。ROM2や外部記憶装置4には、予め決められた所定のプリセット値に設定された奏法パラメータが記憶されている。各奏法毎の奏法パラメータは、大きく奏法検出用パラメータと表情付け用パラメータの2種類に分けられる。奏法検出用パラメータは、自動表情付け対象の楽曲データの中から当該奏法を付加すべき箇所を検索するために用いられるパラメータ、具体的には楽曲データ中の音符列から奏法を付加すべき部分を特定するためのパラメータである。奏法検出用パラメータは、各奏法毎で定義する内容は異なる。例えば、奏法「チョーキング」の場合には上昇し下降する音符列を特定するように定義されるし、奏法「ビブラート」の場合には適宜の所定の1音の音符を特定するように定義される。
【0016】
一方、表情付け用パラメータは、上記奏法検出用パラメータに従い特定された奏法を付与すべき部分に該奏法に対応する表情付けを行う際に用いるパラメータである。表情付け用パラメータは一例として「深さ」「速さ」「カーブ」「ディレイ」などの複数種類のパラメータを含むものであり、各奏法毎に必要なパラメータ種類の数や各パラメータで定義する内容は異なる。例えば、奏法「チョーキング」の場合には、「深さ」は音高の変化の程度を表わすパラメータ、「速さ」は音高の変化の速さ又は長さを表わすパラメータ、「カーブ」は音高の変化の変わり方(例えば、直線型変化、上弦曲線型変化、下弦曲線型変化など)を表わすパラメータ、「ディレイ」はチョーキングが始まるまでの経過時間を表わすパラメータである。奏法「ビブラート」の場合には、「深さ」は音高の変化幅を表わすパラメータ、「速さ」は周期の長さを表わすパラメータ、「ディレイ」は始まるまでの経過時間を表わすパラメータであり、「カーブ」は定義されない。なお、表情付け用パラメータは「深さ」「速さ」「カーブ」「ディレイ」以外の他のパラメータを含んでいてもよい。また、「深さ」「速さ」「カーブ」「ディレイ」の全てのパラメータを必ずしも含んでいる必要はないし、「深さ」「速さ」「カーブ」「ディレイ」のパラメータを全く含まずに、これら以外の他のパラメータのみを含むものであってもよいことは言うまでもない。
【0017】
シーケンスデータは楽曲データに対する自動表情付けがユーザの期待通りに行われるかどうかを確認するために用いられる表情(奏法)確認のための専用データであり、奏法パラメータと同様にして各奏法毎に対応するように用意される。該シーケンスデータは自動表情付け対象の楽曲データに比べて非常に短い区間内(例えば1小節前後)の楽曲を表わす楽曲データであり、各奏法が付加される典型的な音符列などを含むデータである。詳しくは後述するが、「表情付け用パラメータ設定・確認画面」(図4参照)におけるオーディションボタンが操作された場合には、選択されている奏法に対応するシーケンスデータが読み出され、調整された表情付け用パラメータに基づく自動表情付けを該シーケンスデータに対して行い、ユーザはその結果を試聴することができるようになっている。このように、ユーザが指定した表情が付加された部分を中心にごく短い区間で楽曲の試聴を行うことができるようにすると、ユーザはよりイメージに近い表情を付与するためにはどの表情付け用パラメータをどの程度の値に設定すればよいのかが分かりやすい。その他のデータは、上記以外のデータである。例えば、CPU1により実行あるいは参照される「自動表情付け処理」などの各種制御プログラム、音色やテンポなどの自動演奏の際に用いられる各種の演奏条件に関するデータなどである。
【0018】
次に、RAM3に記憶される各種データについて、図3を用いて説明する。図3は、RAM3の所定領域に記憶される各種データを説明するための概念図である。この実施例に示すRAM3におけるデータ記憶領域は、記憶するデータの種類毎に、実行プログラムエリア、レジスタエリア、複数のメモリエリア(ここではメモリエリア(1)〜メモリエリア(4))、各奏法のパラメータ現在値エリア、その他のエリアとにより主に構成される。
【0019】
実行プログラムエリアは、CPU1が現在実行中の制御プログラムを記憶するメモリ領域である。すなわち、所定の制御プログラムが実行される際には、ROM2や外部記憶装置4にその他のデータとして記憶されている各種制御プログラムが読み出されて該実行プログラムエリアに書き込まれることで、CPU1はプログラムを実行することができる。レジスタエリアは、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するメモリ領域である。メモリエリア(1)〜メモリエリア(4)は、修正前の元データとそれに対応する修正後の新データとをそれぞれ記憶するエリアである。この実施例において、メモリエリア(1)はユーザにより自動的に表情付けを行う対象として選択された元の楽曲データ(ROM2や外部記憶装置4に記憶されている楽譜をそのまま表わしている楽曲データなど)を記憶し、メモリエリア(2)は奏法パラメータに従って自動的に表情付けされた新の楽曲データ(修正された楽曲データ)を記憶する。また、メモリエリア(3)は選択した奏法に対応した元のシーケンスデータを記憶し、メモリエリア(4)は「表情付け用パラメータ設定・確認画面」(図4参照)を用いて変更された表情付け用パラメータに従って自動表情付けされた新のシーケンスデータを記憶する。すなわち、「表情付け用パラメータ設定・確認画面」におけるオーディションボタンを操作した場合にユーザが試聴することのできる楽曲は、メモリエリア(4)に記憶されているシーケンスデータに基づいて自動演奏される楽曲である。
【0020】
各奏法のパラメータ現在値エリアは、「表情付け用パラメータ設定・確認画面」(図4参照)を用いて変更された各奏法毎の表情付け用パラメータの設定値を記憶するメモリ領域である。楽曲データに対し自動表情付けする際には、該パラメータ現在値エリアに記憶されている各奏法毎の表情付け用パラメータの値に基づき楽曲データの修正を行う。その他のエリアは、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリ領域、あるいは現在実行中のプログラムやそれに関連する上記以外の各種データを記憶するメモリ領域などである。
なお、ROM2や外部記憶装置4あるいはRAM3に記憶するデータには上述したようなデータ以外にも他のデータが含まれていてもよいことは言うまでもない。
【0021】
図1に示すハードウエア構成の説明に戻って、演奏操作子5Aは楽音の音高を選択するための複数の鍵を備えた、例えば鍵盤等のようなものであり、各鍵に対応してキースイッチを有しており、この演奏操作子5Aは楽音演奏のために使用できるのは勿論のこと、楽曲データやシーケンスデータに基づく自動演奏を行う際に用いるピッチやリズムなどを入力するための入力手段として使用することもできる。勿論、演奏操作子5Aは鍵盤等の形態に限らず、楽音の音高を選択するための弦を備えたネック等のような形態のものなど、どのようなものであってもよいことは言うまでもない。検出回路5は、演奏操作子5Aの各鍵の押圧及び離鍵を検出することによって、あるいは弦の振動を検出することによって検出出力を生じる。
【0022】
パネル操作子(設定スイッチ等)6Aは「自動表情付け処理」を実行するための自動表情付け開始スイッチ、自動表情付け対象とする楽曲データを選択するための楽曲データ選択スイッチ、表情付けする奏法の種類を選択する奏法選択スイッチ、各奏法毎の表情付け用パラメータを変更する「表情付け用パラメータ設定・確認画面」を呼び出すための表情付け用パラメータ調整スイッチ、あるいは自動演奏時における各種演奏条件等を入力するための演奏条件入力スイッチ等、各種の操作子を含んで構成される。勿論、音高、音色、効果等を選択・設定・制御するために用いる数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは操作量に応じたピッチベンド値を設定することのできるピッチベンドホイールなどの各種操作子を含んでいてもよい。スイッチ検出回路6は、パネル操作子6Aの各操作子の操作状態を検出し、その操作状態に応じたスイッチ情報を通信バス1Dを介してCPU1に出力する。表示回路7は楽曲データに含まれる一連の音符列の各音高をそれぞれ表す複数の音高情報等の各種情報を、例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ7Aに表示するのは勿論のこと、自動演奏に関する演奏情報あるいはCPU1の制御状態などをディスプレイ7Aに表示する。
【0023】
音源回路8は、複数のチャンネルで楽音信号の同時発生が可能であり、通信バス1Dを経由して与えられた楽曲データを入力し、この楽曲データに基づいて楽音信号を発生する。音源回路8から発生された楽音信号は、図示しない効果回路(例えばDSP(Digital Signal Processor))などにより所定のディジタル信号処理が施され、該信号処理された楽音信号はサウンドシステム8Aに与えられて発音される。楽曲データの形式はSMF(Standard MIDI File)形式のようなディジタル符号化されたものであってもよいし、PCM、DPCM、ADPCMのような波形サンプルデータ方式からなるものであってもよい。また、効果回路(図示せず)を音源回路8とサウンドシステム8Aとの間に配置して前記音源回路8から発生された楽音信号に対して各種効果を与えるようにしてもよい。前記音源回路8における楽音信号発生方式はいかなるものを用いてもよい。例えば、発生すべき楽音の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを求めるFM方式、あるいは上記アドレスデータを位相角パラメータデータとして所定の振幅変調演算を実行して楽音波形サンプル値データを求めるAM方式等の公知の方式を適宜採用してもよい。すなわち、音源回路8の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路7を構成するものに限らず、DSPとマイクロプログラム、あるいはCPUとソフトウェアを用いて音源回路8を構成するようにしてもよい。さらに、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で形成されるようなものであってもよい。
【0024】
インタフェース9は該電子楽器と外部の楽曲データ生成機器(図示せず)などとの間で各種情報を送受するための、例えばMIDIインタフェースや通信インタフェースなどである。MIDIインタフェースは、外部の楽曲データ生成機器(この場合には、他のMIDI機器等)からMIDI規格の楽音情報(MIDI楽曲データ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDI規格の楽音情報(MIDI楽曲データ)を他のMIDI機器等へ出力するためのインタフェースである。他のMIDI機器はユーザによる操作に応じてMIDI形式のデータを発生する機器であればよく、鍵盤型、ギター型、管楽器型、打楽器型、ミブリ型等どのようなタイプの操作子を具えた(若しくは、操作形態からなる)機器であってもよい。通信インタフェースは、例えばLANやインターネット、電話回線等の有線あるいは無線の通信ネットワーク(図示せず)に接続されており、概通信ネットワークを介して、外部の楽曲データ生成機器(この場合には、サーバコンピュータ等)と接続され、当該サーバコンピュータから制御プログラムや楽曲データなどの各種情報を該電子楽器に取り込むためのインタフェースである。すなわち、ROM2や外部記憶装置4等に制御プログラムや楽曲データなどの各種情報が記憶されていない場合に、サーバコンピュータから各種情報をダウンロードするために用いられる。クライアントとなる電子楽器は、通信インターフェース及び通信ネットワークを介してサーバコンピュータへと制御プログラムや楽曲データなどの各種情報のダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求された各種情報を通信ネットワークを介して本電子楽器へと配信し、本電子楽器が通信インタフェースを介して各種情報を受信して外部記憶装置4等に蓄積することにより、ダウンロードが完了する。
【0025】
なお、上記インタフェース9をMIDIインタフェースで構成した場合、該MIDIインタフェースは専用のMIDIインタフェースを用いるものに限らず、RS232−C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェースを構成するようにしてもよい。この場合、MIDIイベントデータ以外のデータをも同時に送受信するようにしてもよい。MIDIインタフェースとして上記したような汎用のインタフェースを用いる場合には、他のMIDI機器はMIDIイベントデータ以外のデータも送受信できるようにしてよい。勿論、音楽情報に関するデータフォーマットはMIDI形式のデータに限らず、他の形式であってもよく、その場合はMIDIインタフェースと他のMIDI機器はそれにあった構成とする。
【0026】
ここで、パネル操作子6Aにおける表情付け用パラメータ調整スイッチを操作することに伴って、ディスプレイ7A上に表示される「表情付け用パラメータ設定・確認画面」について、図4を用いて説明する。図4は、「表情付け用パラメータ設定・確認画面」の一実施例を示す概念図である。
【0027】
この図4に示す実施例から理解できるように、ディスプレイ7A上に表示される「表情付け用パラメータ設定・確認画面」は、画面上段に奏法種類のテンプレートGa、画面中段に表情付け用パラメータのイメージ画像Gb、画面下段に各種の表情付け用パラメータ設定スイッチGcと「オーディション」ボタンBaと「設定」ボタンBbとを表示する画面である。画面上段に表示される奏法種類テンプレートGaは、後述する「自動表情付け処理」(図5参照)の際にユーザにより表情付けする奏法として選択された奏法の種類を表示する。すなわち、この実施例では、楽曲データに対して表情付けする奏法として「チョーキング」「ビブラート」「スタッカート」「グリッサンド」の4つの種類の奏法が選択されている場合を示している。ユーザは表示されている該奏法毎のテンプレートGaを指定することにより、各奏法に対応する表情付け用パラメータの設定を行なうことができるようになっている。画面中段に表示される表情付け用パラメータのイメージ画像Gbは選択された奏法に対応する表情付け用パラメータをイメージ表示したものであり、該イメージ画像Gbは奏法に従う表示形態で表示される画像である。画面下段に表示される表情付け用パラメータ設定スイッチGcは、選択された奏法に対応する表情付け用パラメータの設定値を変更するためのスイッチである。この実施例では、黒く塗りつぶした上向きあるいは下向きの三角形を押下操作する度に細かい数値ステップでパラメータ設定値を変更することが可能なカウンタスイッチと、黒く塗りつぶした四角形を左右方向にスライド操作することで大きな数値ステップでパラメータ設定値を変更することが可能なスライドスイッチとを表示している。これらの各スイッチ操作によって設定されたパラメータ設定値に従い、画面中段に表示された表情付け用パラメータのイメージ画像Gbの表示形態は変化する。これにより、ユーザは表情付けパラメータの設定変更による楽曲の変化を視覚的に確認することができるようになっている。
【0028】
上記表情付け用パラメータのイメージ画像Gb及び表情付け用パラメータ設定スイッチGcは、選択された奏法に対応した表示がなされる。すなわち、奏法毎の表情付け用パラメータに含まれるパラメータ内容、例えば「深さ」「速さ」「カーブ」「ディレイ」「その他」といった各種パラメータのうちどのパラメータが含まれているものであるかによって、表情付け用パラメータのイメージ画像Gbの表示形態や表情付け用パラメータ設定スイッチGcの表示種類が異なる。この実施例では、奏法として「ビブラート」が選択されている場合の表情付け用パラメータのイメージ画像Gb及び表情付け用パラメータ設定スイッチGcを示した。すなわち、上述したように「ビブラート」に対応する表情付けパラメータに含まれるパラメータ内容は、音高の変化幅を定義する「深さ」、周期の長さを定義する「速さ」、始まるまでの経過時間を定義する「ディレイ」である。そこで、これらのパラメータ内容を視覚的に確認するのに最も適した表示を行うと、図示したような波形のような表示形態のイメージ画像Gbが表示される。一方、上記したパラメータ内容を変更するのに最も適した表情付け用パラメータ設定スイッチGcを表示すると、図示したような「デプス」スイッチと「レイト」スイッチとが表示されることになる。すなわち、「デプス」スイッチは「深さ」を、「レイト」スイッチは「ディレイ」をそれぞれ設定するためのスイッチである。なお、この実施例においては「速さ」を設定するためのスイッチ表示がないが、「ビブラート」における「速さ」は周期の長さを定義するものであり、この周期の長さはテンポに従って決まるものであるから、「ビブラート」の場合には「速さ」に対応するスイッチ表示がなされない。そして、表情付け用パラメータのイメージ画像には、これらの表情付け用パラメータ設定スイッチGcによるパラメータ設定値の変更による楽音特性の変化をユーザがイメージ的に捉えることができるようなイメージ画像を表示する。このように、表情付け用パラメータのイメージ画像Gb及び表情付け用パラメータ設定スイッチGcに表示する表示内容は、選択された奏法に対応する。なお、この実施例において表情付け用パラメータ設定スイッチGcに表示する「ランダム」スイッチは、「速さ」や「ディレイ」などにより設定可能なパラメータ設定値をランダムに設定するためのスイッチである。
【0029】
画面下段に表示される「オーディション」ボタンBaは、ユーザが表情付け用パラメータ設定スイッチGcを用いて設定した内容に従って表情付けされた所定の演奏区間の楽曲を試聴するためのボタンである。すなわち、この「オーディション」ボタンBaの操作に従い、設定された各パラメータの設定値で奏法毎に対応する所定のシーケンスデータに対して表情付けを行い、該表情付けされたシーケンスデータに基づき楽音を発生する。また、「設定」ボタンBbは、ユーザが表情付け用パラメータ設定スイッチGcを用いて設定した設定値にパラメータ値を決定し、該パラメータ値で楽曲データに表情付けを開始することを決定するためのボタンである。これらの各ボタン操作に伴う詳しい説明は後述することから、ここでの説明を省略する。
【0030】
上述したように、楽曲データを一連の音符列の各音高情報のみで構成すると機械的な無表情な演奏が再生されることとなり、こうした演奏は音楽的に非常に不自然な演奏である。そこで、より自然な演奏、美しい演奏、生々しい演奏とするためには、様々な楽器毎に特有の音楽的な表情(すなわち、楽器らしさ)を表す演奏情報を制御データとして楽曲データに付加する(すなわち、表情付けを行う)のがよいことは既に述べた。例えば、ギターやベースなどの弦楽器においてはチョーキング奏法が知られており、このチョーキング奏法を普通の奏法に織り交ぜて用いることによって、ギターらしい表情を持った自然な演奏を作り出すことができる。本発明に係る楽曲データの自動表情付け装置は、楽曲データに対して楽器特有の音楽的な表情(例えば、弦楽器におけるチョーキング奏法など)に関する演奏情報を自動的に付加する。そこで、楽曲データに対して自動的に楽器特有の音楽的な表情を付加する「自動表情付け処理」について、図5に従って説明する。図5は、該電子楽器におけるCPU1で実行する「自動表情付け処理」の一実施例を示したフローチャートである。該「自動表情付け処理」は、パネル操作子6Aにおける自動表情付け開始スイッチの操作に伴って、CPU1で実行される処理である。
【0031】
ステップS1では、自動表情付け対象とする楽曲を既にユーザが選択済みであるか否かを判定する。すなわち、自動表情付け処理対象とする楽曲データが、ユーザによる楽曲データ選択スイッチの操作に従って既に選択されているか選択されていないかを判定する。楽曲が選択済みでないと判定した場合、つまり楽曲がユーザにより未だに選択されていない場合には(ステップS1のNO)、ユーザに楽曲を選択させるように促し、ユーザにより楽曲選択がなされると該選択された楽曲に対応する楽曲データを読み出してメモリエリア(1)に記憶する(ステップS2)。ステップS3では、奏法選択済みであるか否かを判定する。すなわち、自動表情付けする奏法の種類が、ユーザによる奏法選択スイッチの操作に従って既に選択されているか選択されていないかを判定する。奏法が選択済みでないと判定した場合、つまり奏法がユーザにより未だに選択されていない場合には(ステップS3のNO)、ユーザに奏法を選択させる(ステップS4)。自動表情付けする対象の楽曲データや自動表情付けする奏法の種類が選択されていないと、該「自動表情付け処理」を行っても読み出した楽曲データを修正することがなく元の表情付けされていない楽曲のままであることから、処理を行うことが無駄になる。そこで、例えばディスプレイ7A上にユーザに対して楽曲を選択するように表示したり(ステップS2参照)、奏法を選択させるようにする(ステップS4参照)。ユーザにより楽曲が選択された場合には、ROM2や外部記憶装置4などに記憶されている楽曲データの中から選択された楽曲に対応する楽曲データを読み出し、RAM3のメモリエリア(1)に記憶する。ユーザにより奏法が選択された場合には、ROM2や外部記憶装置4などに記憶されている奏法パラメータの中から選択された奏法に対応する奏法パラメータを読み出し、RAM3の各奏法のパラメータ現在値エリアに記憶する。
【0032】
なお、上記ステップS2においてユーザに対して楽曲を選択させる際には、ギターやピアノあるいはサックスといった楽器種類(あるいは音色種類)、ロックやジャズあるいはクラシックなどの音楽ジャンル、アクティブなリードなどの曲タイプ等を組み合わせて指定することにより楽曲を選択することができるようにしてよい。また、上記ステップS4においてユーザに対して奏法を選択させる際には、複数種類の奏法をユーザが選択することができる。ただし、選択された楽曲データにおける楽器種類、音楽ジャンルなどによっては表情付けする奏法として適切でないものがあることから、そうした奏法を選択することができないようにしてもよい。
【0033】
ステップS5では、表情付け用パラメータの変更操作が行われたか否かを判定する。すなわち、ユーザによる表情付け用パラメータ調整スイッチの操作に応じて「表情付け用パラメータ設定・確認画面」(図4参照)がディスプレイ7A上に表示されており、該「表情付け用パラメータ設定・確認画面」を用いての奏法毎の表情付け用パラメータの変更操作(例えば、デプスやレイトあるいはランダムなどの各スイッチ操作によるパラメータ設定値の変更)が行われたか否かを判定する。この「表情付け用パラメータ設定・確認画面」には、上記ステップS4で選択した奏法の表情付け用パラメータのみが表示される。表情付け用パラメータの変更操作が行われたと判定した場合には(ステップS5のYES)、「表情付け用パラメータ設定・確認画面」で選択されている奏法の表情付け用パラメータを変更し、変更した表情付け用パラメータをRAM3に記憶する(ステップS6)。すなわち、RAM3の各奏法のパラメータ現在値エリアに記憶している表情付け用パラメータの設定値を、表情付け用パラメータの変更操作に従って変更されたパラメータ設定値に書き換える。
【0034】
ステップS7では、楽曲データに対して自動的に表情付けを行う「設定」ボタンが押されたか否かを判定する。すなわち、「表情付け用パラメータ設定・確認画面」上に表示されている「設定」ボタンがユーザにより操作されたか否かを判定する。「設定」ボタンが押されたと判定した場合には(ステップS7のYES)、ステップS8に示すような各種処理を実行する。ステップS8では、まず現在記憶されている表情付け用パラメータに基づいて楽曲データに対して表情付けを行う。そして、表情付けした楽曲データをメモリエリア(2)に記憶する。また、ユーザの指示に応じて、表情付けした楽曲データをハードディスク等の外部記憶装置4に記憶する。すなわち、RAM3の各奏法のパラメータ現在値エリアに記憶されている表情付け用パラメータに従って、RAM3のメモリエリア(1)に記憶されている元の楽曲データを読み出し、該読み出した楽曲データの所定の音符の音高や音長(ゲートタイム)や音量などを修正し、修正した結果の新の楽曲データをメモリエリア(2)に記憶する。具体的には、楽曲データをメモリエリア(1)から所定数の音符ずつ順番に読み出して分析し、選択した奏法を付加すべき部分があるかどうかを判別する。選択した奏法を付加すると判別された部分については、音源回路8にて楽音再生する場合に該選択した奏法に基づく音楽表現が実現できるように、各奏法パラメータに基づいて前記判別部分の各音符情報を修正する。修正すると同時に、修正された楽曲データを順次メモリエリア(2)に記憶する。こうして修正された楽曲データをメモリエリア(2)から読み出しつつ音源回路8で再生させると、選択された奏法に対応する音楽的な表情を有する楽音が発生されるようになる。また、該修正された楽曲データを元の楽曲データとして使用できるようにしてもよいことから、メモリエリア(2)に記憶されている修正された楽曲データを読み出してハードディスク等の外部記憶装置4に記憶するようにしてもよい。
【0035】
一方、上記ステップS7において「設定」ボタンが押されていないと判定した場合には(ステップS7のNO)、「表情付け用パラメータ設定・確認画面」上に表示されている「オーディション」ボタンが押されたか否かを判定する(ステップS9)。「オーディション」ボタンが押されていないと判定された場合には(ステップS9のNO)、ステップS5の処理に戻って上記ステップS5からステップS7までの処理を繰り返し実行する。「オーディション」ボタンが押されたと判定した場合には(ステップS9のYES)、ステップS10及びステップS11に示すような各種処理、つまり表情付け用パラメータによる表情付けについての確認処理を実行する。この表情付けについての確認処理では、まずステップS10において、選択された奏法に対応するシーケンスデータをROM2や外部記憶装置4などから読み出して、該読み出したシーケンスデータをRAM3のメモリエリア(3)に記憶する。そして、選択された奏法に対応する奏法パラメータのうちの奏法検出用パラメータに基づいて、楽曲データの中から該奏法の表情付けを行うべき部分を検索して特定する(あるいは、ユーザが予め定めておいた所定部分でもよい)。ステップS11では、現在記憶されている表情付け用パラメータに基づいてシーケンスデータに表情付けを行う。すなわち、RAM3の各奏法のパラメータ現在値エリアに記憶されている表情付け用パラメータに従って、RAM3のメモリエリア(3)に記憶されている元のシーケンスデータを読み出し、該読み出したシーケンスデータの所定の音符の音高や音長(ゲートタイム)や音量などを修正し、修正した結果の新のシーケンスデータをRAM3のメモリエリア(4)に記憶する。そして、表情付けされたシーケンスデータ、つまりメモリエリア(4)に記憶されたシーケンスデータを音源回路8に送り、サウンドシステム8Aを介して再生する。これにより、ユーザは表情付けされたシーケンスデータに基づく楽曲を試聴する。こうした表情付けについての確認処理が終了すると、ステップS5の処理へ戻る。ユーザは楽曲の試聴(オーディション)の結果、該結果が気に入らない場合には再度表情付け用パラメータを変更して試聴を行えばよいし(ステップS5〜ステップS6及びステップS9〜ステップS11参照)、該結果が気にいった場合には楽曲データに対して自動表情付けを行うように設定ボタンを操作すればよい(ステップS7参照)。
【0036】
このように、ユーザは「表情付け用パラメータ設定・確認画面」上に表示されている「オーディション」ボタンを操作するといった簡単な操作を行うことにより、ユーザが設定した奏法毎の表情付け用パラメータに基づき表情付けがなされた短い演奏区間の楽曲を試聴することができる。これにより、ユーザはイメージ通りの音楽的な表情が楽曲に付与されるまで「表情付け用パラメータ設定・確認画面」を用いた表情付け用パラメータの変更と試聴とを繰り返し行うといった表情付けパラメータ調整の試行錯誤を非常に容易に実行することができるようになる。したがって、ユーザは楽曲データに対する自動表情付け処理を効率よく行うことができるようになることから、ユーザ好みの音楽的な表情が付加された楽曲を素早く生成することができるようになる。
【0037】
なお、選択された奏法を表情付けする対象に検索された部分の音符情報は、表情付け用パラメータに基づいて各音符の音高、音長(ゲートタイム)、音量が修正されるものであるが、楽曲データやシーケンスデータがSMF形式のMIDIデータである場合、音符の音長(ゲートタイム)は対応するノートオンからノートオフまでの各イベントのタイミングデータの和がゲートタイムに相当するので、アルペジオ奏法などを表情付けする対象に検索された部分では、そのタイミングデータの和が適宜延長されるように、対応するノートオフイベントのタイミングデータを変更するようにすればよい。また、楽曲データやシーケンスデータが該電子楽器の機種特有の楽曲データであって、各音符がノートオン、ゲートタイム、音量で表わされているような場合には、そのゲートタイムを適宜延長するだけでよい。すなわち、楽曲データやシーケンスデータのデータ形式に従ってデータ内容を修正するようにすることは言うまでもない。
【0038】
なお、この楽曲データ処理装置を電子楽器に適用する場合、電子楽器は鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、音源装置、楽曲データの自動表情付け装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものにも同様に適用できることはいうまでもない。また、パソコンとアプリケーションソフトウェアという構成であってもよく、この場合処理プログラムを磁気ディスク、光ディスクあるいは半導体メモリ等の記憶メディアから供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ装置や自動演奏ピアノのような自動演奏装置、ゲーム装置、携帯電話等の携帯型通信端末などに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の機能が完結している場合に限らず、機能の一部をサーバ側に持たせ、端末とサーバとからなるシステム全体として所定の機能を実現するようにしてもよい。
【0039】
【発明の効果】
本発明によれば、所定の楽器に特有の音楽的な表情に関する演奏情報を楽曲データに自動的に付加する処理を行う前に、ユーザにより設定された所定の奏法に対応する表情付けがなされた所定の楽曲をユーザが試聴できるようにすることで、ユーザは表情付けの結果を随時に確認することができるようになる。したがって、ユーザは楽曲データに対する自動表情付け処理を効率的に実施することができるようになる、という効果が得られる。
【図面の簡単な説明】
【図1】 この発明に係る楽曲データの自動表情付け装置を適用した電子楽器の実施の形態を示すハード構成ブロック図である。
【図2】 ROMや外部記憶装置の所定領域に記憶される各種データを説明するための概念図である。
【図3】 RAMの所定領域に記憶される各種データを説明するための概念図である。
【図4】 「表情付け用パラメータ設定・確認画面」の一実施例を示す概念図である。
【図5】 「自動表情付け処理」の一実施例を示したフローチャートである。
【符号の説明】
1…CPU、1A…タイマ、2…ROM、3…RAM、4…外部記憶装置、5…検出回路、5A…演奏指示操作子(鍵盤等)、6…スイッチ検出回路、6A…パネル操作子(設定スイッチ等)、7…表示回路、7A…ディスプレイ、8…音源回路、8A…サウンドシステム、9…インタフェース、1D…通信バス、Ga…奏法種類のテンプレート、Gb…表情付け用パラメータのイメージ画像、Gc…表情付け用パラメータ設定スイッチ、Ba…オーディションボタン、Bb…設定ボタン
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an automatic expression device and program for music data that automatically adds new musical expressions to music data, and in particular, the user determines what facial expression changes are caused by adjusting various parameters. The present invention relates to a music data automatic facial expression device and a program which can be confirmed at any time so that facial expression can be efficiently performed.
[0002]
[Prior art]
Recently, an automatic performance device that automatically plays musical sounds based on music data, a sequencer that can automatically play and edit music data, and the like are known. The music data used in such an automatic performance device or the like is configured as MIDI data corresponding to each note or symbol of a musical score. If each pitch of a series of note strings is composed only of ON / OFF pitch information, The automatic performance of the musical sound performed by reproducing the music data is a mechanical expressionless performance, which is very unnatural musically. Therefore, in order to make these automatic performances more musically natural, beautiful, and fresh, it is advisable to add various musical expressions and expression of musical instruments to the musical sounds. To that end, it is necessary to modify the pitch, volume, length, timing, etc. of a series of notes so that the music data represents various musical expressions and instrumentalities depending on the playing style, etc. . As a device for performing such facial expression, there has been known an automatic facial expression device for music data that automatically adds performance information representing various musical expressions and instrumental characteristics to music data. In such an automatic expression device for music data, the user can simultaneously select a plurality of performance methods to be given from a plurality of performance methods such as choking, vibrato, glissando, staccato, swing, arpeggio, etc. Can be applied to music data at once (or sequentially). For example, when a choking technique, which is one of the playing techniques frequently used in stringed instruments such as guitars and basses, is selected, a suitable part for performing the choking technique is automatically searched from the music data. Performance information such as a pitch bend value whose parameters are adjusted in advance by the user is newly added to the music data at the search location.
[0003]
[Problems to be solved by the invention]
By the way, in the automatic expression device for music data as described above, it is possible to add a musical expression (such as a performance style) of the user's preference by adjusting the performance style parameters. It takes time until the user-like facial expression generated after the adjustment is confirmed. That is, in the conventional automatic facial expression device for music data, the musical expression that the user has actually expressed only after completing the entire music data in which the user's favorite facial expression is applied to the automatically searched location. Could not be confirmed. For this reason, if the user does not like the music with the expression, the user has to adjust the performance parameters again and repeat the automatic expression process for the entire music data from the beginning. Therefore, in order to generate a music with a satisfied expression for the user, it is necessary to repeat the automatic expression process and repeatedly generate music data to which the user's favorite expression is applied. As described above, expression of music data is conventionally automated, but automatic expression processing is also performed when rendition style parameter adjustment is repeatedly performed when generating music data to which a user-like musical expression is added. Since it had to be repeated, there was a problem that the automatic facial expression processing took time and the processing efficiency was very poor.
[0004]
The present invention has been made in view of the above-described points, and when performing facial expression according to the user's preference, the user can determine what facial expression changes are made by rendition style parameter adjustment before performing automatic facial expression processing. Thus, it is intended to provide an automatic expression device for music data and a program capable of efficiently executing the expression process.
[0005]
[Means for Solving the Problems]
  Music data according to the present inventionFacial expressionThe attaching device is used for confirming performance parameters and parameter supply means for supplying performance parameters for performing musical expression corresponding to a predetermined performance on the music data.Than the music dataData supply means for supplying short sequence data;An image of a performance style parameter supplied by the parameter supply means, a setting operator image for changing the content of the performance style parameter, andInstruct audition startforInstructionsDisplay control for displaying an operation operator image on the same display screen, changing the contents of the rendition style parameter according to the operation of the setting operation image, and changing the display form of the image image of the rendition style parameterMeans and said instructionsBased on the operation of the operator imageIn response to the audition start instruction,SaidFor the sequence data supplied by the data supply means,The control for changing the display form of the image image according to the operation of the setting operator image is performed.Performance parametersContents ofOn the basis of theSaidA musical expression corresponding to a given playing styleAdditionDoAdditionA control means and a tone generation means for generating a tone based on the sequence data to which the musical expression is added are provided.
[0006]
  According to the present invention, when a musical expression corresponding to a predetermined performance style is automatically added to music data, it is used for confirmation of performance style parameters according to an audition start instruction.Than the music dataA musical expression corresponding to a predetermined performance for short sequence dataAdditionThen, a musical tone is generated based on the sequence data to which the musical expression is added.Therefore, Before the user automatically expresses the entire song data based on performance parameters,Changed settings as appropriateUsing rendition style parametersThan the music datashortBased on sequence dataGenerate musicLet me listen to the testTheChanged settingsEasy to change the tone characteristics by playing parametersAccurateCan be confirmed. This makes it possible to efficientlyFacial expressionYou will be able to do that.At that time, an image of a performance style parameter supplied in correspondence with the predetermined performance style, a setting operation picture for changing the content of the performance style parameter, and an instruction style control for giving an audition start instruction Since the image is displayed on the same display screen, the content of the performance style parameter is changed according to the operation of the setting operator image, and the display form of the image image of the performance style parameter is changed. It is possible to check the contents of the setting change visually and in an easy-to-understand manner. In addition, the audition start instruction is immediately given at the desired time by operating the instruction image displayed on the same display screen. Audition start instruction for trial listening of performance sound according to the setting change operation of the performance method parameter and the setting change content Can be performed by switching between the work smoothly, it is possible to provide an easy system very easy to use for the user.
[0007]
The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
[0009]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an electronic musical instrument to which an automatic expression device for music data according to the present invention is applied. In this embodiment, an electronic musical instrument that performs various processes by one CPU 1 will be described as an example.
[0010]
In the electronic musical instrument shown in this embodiment, various processes are executed under the control of a microcomputer comprising a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. It has become. The CPU 1 controls the operation of the entire electronic musical instrument. For this CPU 1, a read-only memory (ROM) 2, a random access memory (RAM) 3, an external storage device 4, a detection circuit 5, and a switch detection circuit 6 via a communication bus 1D (for example, a data and address bus). The display circuit 7, the sound source circuit 8, and the interface 9 are connected to each other. Further, the CPU 1 is connected to a timer 1A for measuring the interrupt time and various times in the timer interrupt process (interrupt process). That is, the timer 1A generates a tempo clock pulse for counting time intervals or setting a performance tempo for automatically playing music according to predetermined music data or sequence data (described later). The frequency of the tempo clock pulse is adjusted by, for example, a tempo setting switch in the panel operator 6A. Such a tempo clock pulse from the timer 1A is given to the CPU 1 as a processing timing command or to the CPU 1 as an interrupt command. The CPU 1 executes various processes according to these instructions. Various types of processing include performance information related to musical expressions peculiar to various musical instruments (for example, choking techniques used in stringed instruments such as guitars) for performing a more natural performance or lively performance on a song. There is an “automatic expression process” (described later) for generating and automatically adding the performance information to the music data.
[0011]
The automatic expression device for music data is not limited to a dedicated device, and may be a general-purpose device such as a personal computer or a multimedia device, for example, and by using predetermined software or hardware according to the present invention, Any device may be used as long as it is configured to automatically analyze data and automatically perform expression on a predetermined musical sound based on the analysis result.
[0012]
The ROM 2 stores various data such as music data, sequence data or performance parameter preset values, and various control programs such as “automatic facial expression processing” executed or referred to by the CPU 1. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for storing a program currently being executed and related data. A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like. Similar to the ROM 2, the external storage device 4 stores various data such as music data, sequence data or performance parameter preset values, various control programs executed by the CPU 1, and the like. When the control program is not stored in the ROM 2, the control program is stored in the external storage device 4 (for example, a hard disk) and is read into the RAM 3 to store the control program in the ROM 2. A similar operation can be performed by the CPU 1. In this way, control programs can be easily added and upgraded. The external storage device 4 is not limited to a hard disk (HD), but a floppy disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), a DVD (Digital Versatile Disk), etc. It may be a storage device that uses various external recording media. Alternatively, a semiconductor memory or the like may be used.
[0013]
Here, various data stored in the ROM 2, the external storage device 4 or the RAM 3 will be briefly described. First, data stored in the ROM 2 and the external storage device 4 will be described with reference to FIG. FIG. 2 is a conceptual diagram for explaining various data stored in the ROM 2 and the external storage device 4. The data stored in the ROM 2 and the external storage device 4 shown in this embodiment is music data, performance parameters, sequence data, other data, and the like.
[0014]
The music data is data to which performance information is added during automatic facial expression, for example, data representing the entire music for one song. The music data is a combination of timing data and event data. The event data is data related to performance events such as key-on data for instructing the tone of music and key-off data for instructing to mute the tone. This event data is used in combination with timing data. The timing data in this embodiment is time data (that is, duration data) indicating a time interval from event data to the next event data, but is not limited to this, and may be in any format such as relative time or absolute time. Good. In other words, the "event + absolute time" format in which the event occurrence time is expressed in absolute time in a song or measure, and the "event + relative time" format in which the event occurrence time is expressed as the time from the previous event , "Pitch (rest) + note length" format that represents music data in terms of note pitch and note length or rest and rest length, and secures a memory area for each performance resolution Any format may be used such as a “solid method” format in which events are stored in a memory area corresponding to the time at which a performance event occurs. Note that the music data is not limited to those recorded with a mixture of event data for a plurality of tracks, that is, not limited to those in which event data is stored in a line in the order of output regardless of the assigned track. It goes without saying that the music data may be configured to store the event data independently for each track.
[0015]
The rendition style parameters are data used for automatic expression of music data, and are prepared to correspond to each rendition style such as choking, vibrato, staccato, glissando and the like. The ROM 2 and the external storage device 4 store performance style parameters set to predetermined preset values. The rendition style parameters for each rendition style are roughly divided into two types: rendition style detection parameters and facial expression parameters. The rendition style detection parameter is a parameter used for searching for a place where the rendition style is to be added from the music data to be automatically expressed, specifically, a part to which the rendition style is to be added from the musical note string in the music data. It is a parameter for specifying. The rendition style detection parameters differ depending on the rendition style. For example, in the case of a performance technique “choking”, it is defined to specify a note string that rises and falls, and in the case of a performance technique “vibrato”, it is defined to specify an appropriate predetermined note. .
[0016]
On the other hand, the facial expression parameter is a parameter used when performing facial expression corresponding to the performance style on a portion to which the performance style specified according to the performance style detection parameter is to be applied. The facial expression parameters include multiple types of parameters such as “depth”, “speed”, “curve”, and “delay” as an example. The number of parameter types required for each performance method and the contents defined by each parameter Is different. For example, in the case of performance “choking”, “depth” is a parameter indicating the degree of pitch change, “speed” is a parameter indicating the speed or length of pitch change, and “curve” is a sound. “Delay” is a parameter that represents the elapsed time until choking begins. This parameter represents how to change the height (for example, linear change, upper chord curve change, lower chord curve change, etc.). In the case of the performance “Vibrato”, “Depth” is a parameter indicating the range of change in pitch, “Speed” is a parameter indicating the length of the period, and “Delay” is a parameter indicating the elapsed time until the start. , "Curve" is not defined. The facial expression parameters may include parameters other than “depth”, “speed”, “curve”, and “delay”. Also, it is not necessary to include all the parameters of “depth”, “speed”, “curve”, and “delay”, and do not include the parameters of “depth”, “speed”, “curve”, and “delay” at all. It goes without saying that only other parameters other than these may be included.
[0017]
Sequence data is dedicated data for confirming facial expressions (playing styles) used to check whether automatic expression of music data is performed as expected by the user, and corresponds to each playing style in the same way as performance style parameters. Be prepared to do. The sequence data is music data representing music in a very short section (for example, around one bar) compared to music data to be automatically expressed, and includes data such as typical note strings to which each performance method is added. is there. As will be described in detail later, when the audition button on the “expression setting parameter setting / confirmation screen” (see FIG. 4) is operated, the sequence data corresponding to the selected rendition is read and adjusted. Automatic facial expression based on the facial expression parameters is performed on the sequence data, and the user can audition the result. In this way, when a song can be auditioned in a very short section centered on a part to which a facial expression specified by the user is added, the user can select which facial expression to add a facial expression closer to the image. It is easy to understand how much the parameter should be set. The other data is data other than the above. For example, various control programs such as “automatic facial expression processing” executed or referred to by the CPU 1, data on various performance conditions used in automatic performance such as timbre and tempo.
[0018]
Next, various data stored in the RAM 3 will be described with reference to FIG. FIG. 3 is a conceptual diagram for explaining various data stored in a predetermined area of the RAM 3. The data storage area in the RAM 3 shown in this embodiment includes an execution program area, a register area, a plurality of memory areas (in this case, the memory area (1) to the memory area (4)), and each performance method for each type of data to be stored. It is mainly composed of the parameter current value area and other areas.
[0019]
The execution program area is a memory area in which the control program currently being executed by the CPU 1 is stored. That is, when a predetermined control program is executed, various control programs stored as other data in the ROM 2 or the external storage device 4 are read and written in the execution program area, so that the CPU 1 Can be executed. The register area is a memory area for temporarily storing various data generated when the CPU 1 executes a predetermined program. The memory area (1) to the memory area (4) are areas for storing original data before correction and new data after correction corresponding to the original data. In this embodiment, the memory area (1) is the original music data (music data representing the music score stored in the ROM 2 or the external storage device 4 as it is) selected by the user as a target for automatic expression. The memory area (2) stores new music data (corrected music data) that is automatically expressed in accordance with performance style parameters. The memory area (3) stores the original sequence data corresponding to the selected rendition, and the memory area (4) stores the expression changed using the “expression setting parameter setting / confirmation screen” (see FIG. 4). New sequence data automatically stored according to the attachment parameters is stored. That is, music that can be auditioned by the user when the audition button on the “expression setting parameter setting / confirmation screen” is operated is music that is automatically played based on the sequence data stored in the memory area (4). It is.
[0020]
The parameter current value area for each performance style is a memory area for storing the setting values of the facial expression parameters for each performance style changed using the “expression setting parameter setting / confirmation screen” (see FIG. 4). When automatic expression is applied to the music data, the music data is corrected based on the value of the expression parameters for each performance style stored in the current parameter value area. The other area is a working memory area that temporarily stores various data generated when the CPU 1 executes a predetermined program, or a memory area that stores a program currently being executed and various other data related thereto. Etc.
Needless to say, the data stored in the ROM 2, the external storage device 4, or the RAM 3 may include other data in addition to the data described above.
[0021]
Returning to the description of the hardware configuration shown in FIG. 1, the performance operator 5A is provided with a plurality of keys for selecting the pitch of a musical tone, such as a keyboard, and corresponds to each key. The performance switch 5A has a key switch and can be used not only for musical performances but also for inputting pitches and rhythms used for automatic performance based on music data and sequence data. It can also be used as an input means. Of course, the performance operator 5A is not limited to the form of a keyboard or the like, and needless to say, it may be of any form such as a neck with a string for selecting the pitch of a musical tone. Yes. The detection circuit 5 generates a detection output by detecting the press and release of each key of the performance operator 5A or by detecting the vibration of the string.
[0022]
A panel operator (setting switch or the like) 6A includes an automatic facial expression start switch for executing “automatic facial expression processing”, a music data selection switch for selecting musical data to be automatically expressed, and a performance technique for performing facial expression. A rendition style selection switch for selecting a type, a facial expression parameter adjustment switch for calling up a “facial expression parameter setting / confirmation screen” for changing the expression parameters for each performance style, or various performance conditions during automatic performance. Various operation elements such as a performance condition input switch for inputting are included. Of course, the numeric keypad for numeric data input and the keyboard for character data input used to select, set and control the pitch, timbre, effect, etc., or the pitch bend wheel that can set the pitch bend value according to the operation amount, etc. The various controls may be included. The switch detection circuit 6 detects the operation state of each operation element of the panel operation element 6A, and outputs switch information corresponding to the operation state to the CPU 1 via the communication bus 1D. The display circuit 7 displays various kinds of information such as a plurality of pitch information representing each pitch of a series of note sequences included in the music data on a display 7A composed of, for example, a liquid crystal display panel (LCD) or a CRT. Of course, performance information related to automatic performance or the control state of the CPU 1 is displayed on the display 7A.
[0023]
The tone generator circuit 8 can simultaneously generate music signals on a plurality of channels, inputs music data provided via the communication bus 1D, and generates music signals based on the music data. The musical tone signal generated from the tone generator circuit 8 is subjected to predetermined digital signal processing by an unillustrated effect circuit (for example, DSP (Digital Signal Processor)), and the processed musical tone signal is given to the sound system 8A. Pronounced. The music data format may be digitally encoded such as SMF (Standard MIDI File) format, or may be composed of a waveform sample data system such as PCM, DPCM, ADPCM. Further, an effect circuit (not shown) may be arranged between the tone generator circuit 8 and the sound system 8A so as to give various effects to the musical tone signal generated from the tone generator circuit 8. Any method for generating a tone signal in the tone generator circuit 8 may be used. For example, a waveform memory reading method for sequentially reading out musical tone waveform sample value data stored in a waveform memory in accordance with address data that changes in response to the pitch of a musical tone to be generated, or a predetermined angle as phase angle parameter data. A known method such as an FM method for obtaining musical tone waveform sample value data by executing frequency modulation computation or an AM method for obtaining musical tone waveform sample value data by executing predetermined amplitude modulation computation using the address data as phase angle parameter data. May be adopted as appropriate. That is, the method of the sound source circuit 8 may be any method such as a waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO + VCF + VCA analog synthesizer method, analog simulation method, and the like. In addition, the tone generator circuit 7 may be configured using a DSP and a microprogram, or a CPU and software, without being limited to the component that configures the tone generator circuit 7 using dedicated hardware. Further, a plurality of sound generation channels may be formed by using one circuit in a time division manner, or one sound generation channel may be formed by one circuit.
[0024]
The interface 9 is, for example, a MIDI interface or a communication interface for transmitting / receiving various kinds of information between the electronic musical instrument and an external music data generating device (not shown). The MIDI interface inputs MIDI standard musical sound information (MIDI music data) from an external music data generation device (in this case, another MIDI device, etc.) to the electronic musical instrument, or from the electronic musical instrument to the MIDI standard. This is an interface for outputting musical sound information (MIDI music data) to other MIDI devices. Other MIDI devices may be devices that generate MIDI format data in response to user operations, and include any type of controls such as keyboard type, guitar type, wind instrument type, percussion instrument type, and hybrid type ( Alternatively, it may be a device). The communication interface is connected to, for example, a wired or wireless communication network (not shown) such as a LAN, the Internet, a telephone line, etc., and an external music data generating device (in this case, a server) And an interface for fetching various information such as control programs and music data from the server computer into the electronic musical instrument. That is, when various information such as a control program and music data is not stored in the ROM 2, the external storage device 4 or the like, it is used for downloading various information from the server computer. An electronic musical instrument serving as a client transmits a command requesting download of various information such as a control program and music data to a server computer via a communication interface and a communication network. Upon receiving this command, the server computer distributes the requested various information to the electronic musical instrument via the communication network, and the electronic musical instrument receives the various information via the communication interface and stores it in the external storage device 4 or the like. This completes the download.
[0025]
When the interface 9 is composed of a MIDI interface, the MIDI interface is not limited to a dedicated MIDI interface, but may be RS232-C, USB (Universal Serial Bus), IEEE 1394 (I Triple E 1394), or the like. A MIDI interface may be configured using a general-purpose interface. In this case, data other than MIDI event data may be transmitted and received simultaneously. When a general-purpose interface as described above is used as the MIDI interface, other MIDI devices may be able to transmit and receive data other than MIDI event data. Of course, the data format related to the music information is not limited to the data in the MIDI format, but may be in another format. In that case, the MIDI interface and other MIDI devices are configured accordingly.
[0026]
Here, the “expression setting parameter setting / confirmation screen” displayed on the display 7A when the expression adjustment parameter adjustment switch on the panel operator 6A is operated will be described with reference to FIG. FIG. 4 is a conceptual diagram showing an example of the “expression setting parameter setting / confirmation screen”.
[0027]
As can be understood from the embodiment shown in FIG. 4, the “expression setting parameter setting / confirmation screen” displayed on the display 7A is an image of expression style template Ga in the upper part of the screen and an expression parameter in the middle part of the screen. The image Gb is a screen that displays various facial expression parameter setting switches Gc, an “audition” button Ba, and a “setting” button Bb in the lower part of the screen. The rendition style type template Ga displayed in the upper part of the screen displays the type of rendition style selected as a rendition style to be expressed by the user during the “automatic expression process” (see FIG. 5) described later. That is, this embodiment shows a case where four types of performance methods of “choking”, “vibrato”, “staccato”, and “glissando” are selected as performance methods for adding expression to music data. The user can set facial expression parameters corresponding to each performance style by designating the displayed template Ga for each performance style. The facial expression parameter image Gb displayed in the middle of the screen is an image display of the facial expression parameter corresponding to the selected performance style, and the image image Gb is an image displayed in a display form according to the performance style. . The facial expression parameter setting switch Gc displayed in the lower part of the screen is a switch for changing the setting value of the facial expression parameter corresponding to the selected performance style. In this embodiment, a counter switch that can change the parameter setting value in fine numerical steps each time an upward or downward triangle filled in black is pressed, and a left and right slide operation on a square filled in black. A slide switch capable of changing parameter setting values in large numerical steps is displayed. In accordance with the parameter setting values set by these switch operations, the display form of the image Gb of the facial expression parameter displayed in the middle of the screen changes. As a result, the user can visually confirm the change in music due to the change in the expression parameter setting.
[0028]
The facial expression parameter image Gb and the facial expression parameter setting switch Gc are displayed according to the selected performance style. That is, depending on which parameter is included in various parameters such as “depth”, “speed”, “curve”, “delay”, “other”, etc. The display form of the image image Gb of the facial expression parameter and the display type of the facial expression parameter setting switch Gc are different. In this embodiment, the expression image Gb and the expression setting parameter setting switch Gc when “Vibrato” is selected as the performance method are shown. That is, as described above, the parameter contents included in the expression parameter corresponding to “vibrato” are “depth” that defines the range of change in pitch, “speed” that defines the length of the cycle, A “delay” that defines the elapsed time. Therefore, when a display most suitable for visually confirming the contents of these parameters is performed, an image image Gb having a display form like a waveform as shown in the figure is displayed. On the other hand, when the expression setting parameter setting switch Gc most suitable for changing the above parameter contents is displayed, a “depth” switch and a “late” switch as shown in the figure are displayed. That is, the “depth” switch is for setting “depth”, and the “late” switch is for setting “delay”. In this embodiment, there is no switch display for setting “speed”, but “speed” in “vibrato” defines the length of the cycle, and the length of the cycle is in accordance with the tempo. Since it is determined, in the case of “vibrato”, the switch display corresponding to “speed” is not made. Then, on the image image of the facial expression parameter, an image image is displayed so that the user can visually grasp the change in the musical tone characteristic due to the change of the parameter setting value by the facial expression parameter setting switch Gc. As described above, the display contents displayed on the image image Gb of the facial expression parameter and the parameter setting switch Gc for facial expression correspond to the selected performance style. In this embodiment, the “random” switch displayed on the expression setting parameter setting switch Gc is a switch for randomly setting a parameter setting value that can be set by “speed”, “delay”, or the like.
[0029]
The “audition” button Ba displayed in the lower part of the screen is a button for auditioning a music piece in a predetermined performance section that is expressed in accordance with the content set by the user using the expression setting parameter setting switch Gc. That is, in accordance with the operation of the “audition” button Ba, expression is performed on predetermined sequence data corresponding to each playing style with the set value of each parameter, and a musical tone is generated based on the sequence data with the expression. To do. The “setting” button Bb is used to determine a parameter value to a setting value set by the user using the expression setting parameter setting switch Gc, and to start expression of music data using the parameter value. Button. A detailed description of these button operations will be given later, and will not be repeated here.
[0030]
As described above, when music data is composed only of pitch information of a series of note strings, a mechanical expressionless performance is reproduced, and such a performance is a musically unnatural performance. Therefore, in order to make a more natural performance, beautiful performance, and live performance, performance information representing a musical expression specific to each musical instrument (that is, musicality) is added to music data as control data ( That is, it has already been mentioned that it is better to apply facial expressions. For example, choking techniques are known for stringed instruments such as guitars and basses. By using this choking technique in combination with ordinary playing techniques, it is possible to create a natural performance with a guitar-like expression. The automatic expression device for music data according to the present invention automatically adds performance information relating to musical expressions peculiar to musical instruments (for example, choking technique for stringed instruments) to music data. An “automatic expression process” for automatically adding a musical expression specific to a musical instrument to music data will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the “automatic expression process” executed by the CPU 1 in the electronic musical instrument. The “automatic expression adding process” is a process executed by the CPU 1 in accordance with the operation of the automatic expression adding start switch in the panel operator 6A.
[0031]
In step S1, it is determined whether or not the user has already selected the music to be automatically expressed. That is, it is determined whether or not the music data to be subjected to automatic facial expression processing has already been selected or not selected according to the operation of the music data selection switch by the user. If it is determined that the music has not been selected, that is, if the music has not yet been selected by the user (NO in step S1), the user is prompted to select the music, and the selection is performed when the music is selected by the user. The music data corresponding to the selected music is read and stored in the memory area (1) (step S2). In step S3, it is determined whether or not a performance style has been selected. That is, it is determined whether or not the type of rendition style to be automatically assigned is already selected or not according to the operation of the rendition style selection switch by the user. If it is determined that the rendition has not been selected, that is, if the rendition has not yet been selected by the user (NO in step S3), the user is allowed to select a rendition (step S4). If the music data for automatic facial expression and the type of performance method for automatic facial expression are not selected, the original musical expression is not corrected even if the "automatic facial expression processing" is performed. Since there is no music left, processing is wasted. Therefore, for example, a display is made on the display 7A so as to select a song for the user (see step S2), or a performance style is selected (see step S4). When the user selects a song, the song data corresponding to the song selected from the song data stored in the ROM 2 or the external storage device 4 is read out and stored in the memory area (1) of the RAM 3. . When a rendition style is selected by the user, rendition style parameters corresponding to the rendition style parameters selected from the rendition style parameters stored in the ROM 2 or the external storage device 4 are read out and stored in the parameter current value area of each performance style in the RAM 3. Remember.
[0032]
When the user selects a song in step S2, the instrument type (or tone type) such as guitar, piano, or saxophone, the music genre such as rock, jazz, or classic, the song type such as active lead, etc. It may be possible to select music by specifying in combination. Moreover, when making a user select a performance style in the said step S4, a user can select the multiple types of performance style. However, depending on the musical instrument type, the music genre, etc. in the selected music data, there are some performance methods that are not suitable for the expression, so that such performance methods may not be selected.
[0033]
In step S5, it is determined whether or not a facial expression parameter changing operation has been performed. That is, the “expression setting parameter setting / confirmation screen” (see FIG. 4) is displayed on the display 7A in accordance with the user's operation of the expression parameter adjustment switch. It is determined whether or not an operation for changing a parameter for adding a facial expression for each performance method (for example, changing a parameter setting value by operating each switch such as depth, rate, or random) has been performed. On this “expression setting parameter setting / confirmation screen”, only the expression parameters for the rendition style selected in step S4 are displayed. If it is determined that the facial expression parameter changing operation has been performed (YES in step S5), the facial expression parameter for the rendition style selected on the “Expression parameter setting / confirmation screen” is changed and changed. The facial expression parameters are stored in the RAM 3 (step S6). That is, the setting value of the facial expression parameter stored in the parameter current value area of each performance style in the RAM 3 is rewritten with the parameter setting value changed according to the facial expression parameter changing operation.
[0034]
In step S7, it is determined whether or not a “setting” button for automatically applying a facial expression to the music data has been pressed. That is, it is determined whether or not the “setting” button displayed on the “expression setting parameter setting / confirmation screen” has been operated by the user. When it is determined that the “SET” button has been pressed (YES in step S7), various processes as shown in step S8 are executed. In step S8, expression is first applied to the music data based on the expression parameters currently stored. Then, the music data with the expression is stored in the memory area (2). In addition, in accordance with the user's instruction, the music data with the expression is stored in the external storage device 4 such as a hard disk. That is, the original music data stored in the memory area (1) of the RAM 3 is read in accordance with the facial expression parameters stored in the parameter current value area of each performance method of the RAM 3, and predetermined musical notes of the read music data are read out. The pitch, tone length (gate time), volume, etc. are corrected, and the new music data resulting from the correction is stored in the memory area (2). Specifically, the music data is sequentially read from the memory area (1) and analyzed in order, and it is determined whether or not there is a portion to which the selected performance style is to be added. For the portion determined to add the selected rendition style, each musical piece information of the determined portion is based on each rendition style parameter so that music expression based on the selected rendition method can be realized when the tone generator 8 reproduces the musical sound. To correct. Simultaneously with the correction, the corrected music data are sequentially stored in the memory area (2). When the music data thus corrected is read from the memory area (2) and reproduced by the tone generator circuit 8, a musical tone having a musical expression corresponding to the selected performance style is generated. Further, since the modified music data may be used as the original music data, the modified music data stored in the memory area (2) is read and stored in the external storage device 4 such as a hard disk. You may make it memorize | store.
[0035]
On the other hand, if it is determined in step S7 that the “setting” button has not been pressed (NO in step S7), the “audition” button displayed on the “expression setting parameter setting / confirmation screen” has been pressed. It is determined whether it has been done (step S9). If it is determined that the “audition” button has not been pressed (NO in step S9), the process returns to step S5 and the processes from step S5 to step S7 are repeated. If it is determined that the “Audition” button has been pressed (YES in step S9), various processes as shown in steps S10 and S11, that is, confirmation processing for facial expression using facial expression parameters are executed. In this confirmation process for facial expression, first, in step S10, sequence data corresponding to the selected performance style is read from the ROM 2, the external storage device 4 or the like, and the read sequence data is stored in the memory area (3) of the RAM 3. To do. Then, based on the rendition style detection parameters among the rendition style parameters corresponding to the selected rendition style, the music data is searched for and specified as a portion to be subjected to the expression of the rendition style (or determined in advance by the user). It may be a predetermined part). In step S11, expression is performed on the sequence data based on the currently stored expression parameters. That is, the original sequence data stored in the memory area (3) of the RAM 3 is read in accordance with the facial expression parameters stored in the parameter current value area of each performance method of the RAM 3, and predetermined musical notes of the read sequence data are read out. The tone pitch, tone length (gate time), volume, etc. are corrected, and new sequence data resulting from the correction is stored in the memory area (4) of the RAM 3. Then, the sequence data with the expression, that is, the sequence data stored in the memory area (4) is sent to the sound source circuit 8 and reproduced via the sound system 8A. As a result, the user listens to the music based on the sequence data with the expression. When the confirmation process for the expression is finished, the process returns to step S5. If the user does not like the result of the audition of the music, the user can change the expression parameters again and perform the audition (see Steps S5 to S6 and Steps S9 to S11). If the result is satisfactory, the setting button may be operated so as to perform automatic expression on the music data (see step S7).
[0036]
In this way, the user performs simple operations such as operating the “audition” button displayed on the “expression setting parameter setting / confirmation screen”, whereby the expression parameters for each performance style set by the user are set. You can audition the music of a short performance section with a facial expression. This allows the user to perform facial expression parameter adjustment, such as repeatedly changing facial expression parameters using the “Expression parameter setting / confirmation screen” and listening until the musical musical expression is given to the song. Trial and error can be performed very easily. Accordingly, since the user can efficiently perform the automatic facial expression processing on the music data, it is possible to quickly generate a music to which a musical expression desired by the user is added.
[0037]
Note that the note information of the part searched for the subject for which the selected rendition is to be expressed is one in which the pitch, tone length (gate time), and volume of each note are corrected based on the expression parameters. If the music data or sequence data is SMF format MIDI data, the note length (gate time) is the sum of the timing data of each event from the corresponding note-on to note-off, so the arpeggio In a part searched for a subject to be renditioned such as a rendition style, the timing data of the corresponding note-off event may be changed so that the sum of the timing data is appropriately extended. If the music data or sequence data is music data specific to the electronic musical instrument model and each note is represented by note-on, gate time, and volume, the gate time is appropriately extended. Just do it. That is, it goes without saying that the data content is corrected according to the data format of the music data or sequence data.
[0038]
When this music data processing apparatus is applied to an electronic musical instrument, the electronic musical instrument is not limited to a keyboard instrument, and may be any type of instrument such as a stringed instrument, a wind instrument, or a percussion instrument. In addition, the sound source device, the automatic expression device for music data, etc. are not limited to those built in one electronic musical instrument body, but each is configured separately, and each device is connected using communication means such as a MIDI interface or various networks. Needless to say, the present invention can be similarly applied to the structure configured as described above. In addition, a configuration of a personal computer and application software may be used. In this case, the processing program may be supplied from a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory, or may be supplied via a network. Furthermore, the present invention may be applied to an automatic performance device such as a karaoke device or an automatic performance piano, a game device, or a portable communication terminal such as a mobile phone. When applied to a portable communication terminal, not only when a predetermined function is completed with only the terminal, but also a part of the function is provided on the server side, and the predetermined function is realized as a whole system composed of the terminal and the server. You may make it do.
[0039]
【The invention's effect】
According to the present invention, expression processing corresponding to a predetermined performance set by a user is performed before performing processing for automatically adding performance information related to a musical expression specific to a predetermined musical instrument to music data. By allowing the user to listen to the predetermined music, the user can check the result of the expression at any time. Therefore, an effect is obtained that the user can efficiently perform automatic facial expression processing on music data.
[Brief description of the drawings]
FIG. 1 is a block diagram of a hardware configuration showing an embodiment of an electronic musical instrument to which an automatic expression device for music data according to the present invention is applied.
FIG. 2 is a conceptual diagram for explaining various data stored in a predetermined area of a ROM or an external storage device.
FIG. 3 is a conceptual diagram for explaining various data stored in a predetermined area of a RAM.
FIG. 4 is a conceptual diagram showing an example of a “expression setting parameter setting / confirmation screen”.
FIG. 5 is a flowchart showing an example of “automatic facial expression processing”.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... CPU, 1A ... Timer, 2 ... ROM, 3 ... RAM, 4 ... External storage device, 5 ... Detection circuit, 5A ... Performance instruction operator (keyboard etc.), 6 ... Switch detection circuit, 6A ... Panel operator ( 7 ... display circuit, 7A ... display, 8 ... sound source circuit, 8A ... sound system, 9 ... interface, 1D ... communication bus, Ga ... rendition style template, Gb ... image image of expression parameters, Gc: Parameter setting switch for facial expression, Ba: Audition button, Bb: Setting button

Claims (5)

楽曲データに対して所定の奏法に対応する音楽的な表情付けを行うための奏法パラメータを供給するパラメータ供給手段と、
奏法パラメータの確認のために使用される、前記楽曲データよりも短いシーケンスデータを供給するデータ供給手段と、
前記パラメータ供給手段により供給された奏法パラメータのイメージ画像、該奏法パラメータの内容を変更するための設定用操作子画像、及びオーディション開始指示を行うための指示用操作子画像を同一の表示画面に表示し、前記設定用操作子画像の操作に応じて前記奏法パラメータの内容を変更すると共に該奏法パラメータのイメージ画像の表示形態を変化させる表示制御手段と、
前記指示用操作子画像の操作に基づくオーディション開始指示に応じて、前記データ供給手段により供給されたシーケンスデータに対して前記設定用操作子画像の操作に応じて前記イメージ画像の表示形態を変化する制御がなされた前記奏法パラメータの内容に基づいて前記所定の奏法に対応する音楽的な表情を付加する付加制御手段と、
前記音楽的な表情を付加されたシーケンスデータに基づき楽音を生成する楽音生成手段と
を具えた楽曲データの表情付け装置。
Parameter supply means for supplying performance parameters for performing musical expression corresponding to a predetermined performance on the music data;
A data supply means for supplying sequence data shorter than the music data, which is used for confirming performance parameters;
An image of the rendition style parameters supplied by the parameter supply means, a setting operation image for changing the content of the rendition style parameters, and an instruction operation image for instructing to start an audition are displayed on the same display screen. Display control means for changing the content of the rendition style parameters in accordance with the operation of the setting operator image and changing the display form of the image of the rendition style parameters ;
Depending on the audition start instruction based on the operation of the instruction operating image, changing the display mode of the images in accordance with the operation of the setting operating image for the sequence data supplied by said data supply means and addition control means for adding musical expressions corresponding to the predetermined rendition style based on the content of the rendition style parameters control is made,
A music data facial expression device comprising musical tone generation means for generating musical sounds based on the sequence data to which the musical expression is added.
複数種類の奏法の中から所望の奏法を選択する奏法選択手段を具備し
前記パラメータ供給手段は、前記複数種類の奏法毎の奏法パラメータのうち前記奏法選択手段によって選択された奏法に対応する奏法パラメータを供給し、
前記データ供給手段は、前記複数種類の奏法毎にそれぞれ対応づけてシーケンスデータを記憶するデータ記憶手段を含み、前記奏法選択手段によって選択された奏法に対応するシーケンスデータを該データ記憶手段から読み出して供給することを特徴とする請求項1に記載の楽曲データの表情付け装置。
A rendition style selection means for selecting a desired rendition style from a plurality of rendition styles;
The parameter supply means supplies rendition style parameters corresponding to the rendition style selected by the rendition style selection means from among the rendition style parameters for each of the plurality of types of rendition styles,
It said data supply means, each of the plurality kinds of each rendition style associates includes data storage means for storing sequence data, sequence data corresponding to the rendition style selected by said rendition style selecting means is read from the data storage means 2. The music data expression device according to claim 1 , wherein the music data expression device is supplied .
前記パラメータ供給手段により供給された奏法パラメータを記憶するパラメータ記憶手段を具備し、前記表示制御手段は、前記設定用操作子画像の操作に応じて前記パラメータ記憶手段に記憶された奏法パラメータ内容を変更するものであり
前記付加制御手段は、前記供給されたシーケンスデータに対して前記パラメータ記憶手段に記憶されている奏法パラメータの内容に基づいて前記所定の奏法に対応する音楽的な表情を付加することを特徴とする請求項1又は2に記載の楽曲データの表情付け装置。
It comprises parameter storage means for storing performance style parameters supplied by the parameter supply means , and the display control means stores the contents of performance style parameters stored in the parameter storage means in response to the operation of the setting operator image. is intended to change,
Said additional control means is characterized by adding musical expressions corresponding to the predetermined rendition style based on the contents of the performance parameter to the to the supplied sequence data stored in said parameter storage means The music data expression device according to claim 1 or 2 .
更に、
表情付けをしたい所望の楽曲データを取得する取得手段と、
該楽曲データに対して表情付けを行うことを指示する指示手段と、
前記指示手段による指示に応じて、前記取得した楽曲データに対して前記パラメータ記憶手段に記憶されている奏法パラメータの内容に基づいて前記所定の奏法に対応する音楽的な表情を付加する手段と
を具備したことを特徴とする請求項3に記載の楽曲データの表情付け装置。
Furthermore,
An acquisition means for acquiring desired music data to be expressed;
Instruction means for instructing the music data to be expressed;
Depending on the instruction by said instruction means, and means for adding musical expressions corresponding to the predetermined rendition style based on the contents of the performance parameter stored in the parameter storage means to said acquired music data
The music data facial expression device according to claim 3, comprising:
コンピュータに、
楽曲データに対して所定の奏法に対応する音楽的な表情付けを行うための奏法パラメータを供給する手順と、
奏法パラメータの確認のために使用される、前記楽曲データよりも短いシーケンスデータを供給する手順と、
前記供給された奏法パラメータのイメージ画像、該奏法パラメータの内容を変更するための設定用操作子画像、及びオーディション開始指示を行うための指示用操作子画像を同一の表示画面に表示し、前記設定用操作子画像の操作に応じて前記奏法パラメータの内容を変更すると共に該奏法パラメータのイメージ画像の表示形態を変化させる手順と、
前記指示用操作子画像の操作に基づくオーディション開始指示に応じて、前記供給されたシーケンスデータに対して前記設定用操作子画像の操作に応じて前記イメージ画像の表 示形態を変化する制御がなされた前記奏法パラメータの内容に基づいて前記所定の奏法に対応する音楽的な表情を付加する手順と、
前記音楽的な表情を付加されたシーケンスデータに基づき楽音を生成する手順と
を実行させるためのプログラム。
On the computer,
A procedure for supplying performance parameters for performing musical expression corresponding to a predetermined performance on the music data;
A procedure for supplying sequence data shorter than the music data, which is used for confirmation of performance parameters;
An image of the supplied performance style parameter, a setting operation image for changing the content of the performance style parameter, and an instruction operation image for performing an audition start instruction are displayed on the same display screen, and the setting is performed. Changing the content of the rendition style parameters in accordance with the operation of the operator image and changing the display form of the image of the rendition style parameters ;
Depending on the operation audition start instruction based of the instruction operating image, the control for changing the Viewing form of the picture image in accordance with the operation of the setting operating image to the supplied sequence data is performed a step of adding musical expressions corresponding to the predetermined rendition style based on the contents of the style-of-rendition parameters,
Program for executing the steps of generating a musical tone based on the sequence data added to the musical expression.
JP2002035437A 2002-02-13 2002-02-13 Musical data expression device and program Expired - Fee Related JP3755468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002035437A JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002035437A JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Publications (2)

Publication Number Publication Date
JP2003233374A JP2003233374A (en) 2003-08-22
JP3755468B2 true JP3755468B2 (en) 2006-03-15

Family

ID=27777623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002035437A Expired - Fee Related JP3755468B2 (en) 2002-02-13 2002-02-13 Musical data expression device and program

Country Status (1)

Country Link
JP (1) JP3755468B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295082A (en) * 2004-03-31 2005-10-20 Snk Playmore Corp Data supply server and data supplying method

Also Published As

Publication number Publication date
JP2003233374A (en) 2003-08-22

Similar Documents

Publication Publication Date Title
US7750230B2 (en) Automatic rendition style determining apparatus and method
JP4702160B2 (en) Musical sound synthesizer and program
US6911591B2 (en) Rendition style determining and/or editing apparatus and method
US20070000371A1 (en) Tone synthesis apparatus and method
US7420113B2 (en) Rendition style determination apparatus and method
US20090158919A1 (en) Tone synthesis apparatus and method
JP3541686B2 (en) Performance practice equipment and recording media
JPH10214083A (en) Musical sound generating method and storage medium
JP4407473B2 (en) Performance method determining device and program
JP2004078095A (en) Playing style determining device and program
JP3755468B2 (en) Musical data expression device and program
JP3873790B2 (en) Rendition style display editing apparatus and method
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP3671788B2 (en) Tone setting device, tone setting method, and computer-readable recording medium having recorded tone setting program
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP4802947B2 (en) Performance method determining device and program
JP4172509B2 (en) Apparatus and method for automatic performance determination
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium
JP3873789B2 (en) Apparatus and method for automatic performance determination
JP3642028B2 (en) Performance data processing apparatus and method, and storage medium
JP3797180B2 (en) Music score display device and music score display program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP2006133464A (en) Device and program of determining way of playing
JP3797181B2 (en) Music score display device and music score display program
JP2003099053A (en) Playing data processor and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100106

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110106

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120106

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130106

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140106

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees