JP4147885B2 - Performance data processing device - Google Patents

Performance data processing device Download PDF

Info

Publication number
JP4147885B2
JP4147885B2 JP2002292331A JP2002292331A JP4147885B2 JP 4147885 B2 JP4147885 B2 JP 4147885B2 JP 2002292331 A JP2002292331 A JP 2002292331A JP 2002292331 A JP2002292331 A JP 2002292331A JP 4147885 B2 JP4147885 B2 JP 4147885B2
Authority
JP
Japan
Prior art keywords
processing
performance data
set value
condition
machining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002292331A
Other languages
Japanese (ja)
Other versions
JP2003177751A (en
Inventor
明 山内
大生 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002292331A priority Critical patent/JP4147885B2/en
Publication of JP2003177751A publication Critical patent/JP2003177751A/en
Application granted granted Critical
Publication of JP4147885B2 publication Critical patent/JP4147885B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、演奏データの音楽表現力を高めるために、元の演奏データを基準にして、個々の音符情報のパラメータ等をわずかに変更することによって、演奏データの加工を行う演奏データ加工処理技術に関するものである。
【0002】
【従来の技術】
MIDI(Musical Instrument Digital Interface)データなどを用いた自動演奏データは、一般に、複数種類の演奏パートに対応させて複数トラックのデータで構成される。ここで、各トラック内の発音データが、音符情報のみで構成される場合、特に、音符情報に含まれるベロシティ(音の強さ、音量)などの楽音特性が一律である場合には、機械的な演奏になって無表情である。そのため、感情が込められた楽曲らしさを出したい。しかし、楽曲に表現力豊かな表情付けを行うには、音符情報の発音タイミング、音高、強さ等のパラメータを元の値からきめ細かく変更する加工処理が必要である。
しかし、ユーザは、演奏データの各トラックの楽音データについて、適切な楽音特性を有するようにパラメータを設定する必要がある。したがって、その設定作業は、楽曲の特徴やコンピュータミュージックを熟知していない初心者にとっては困難であり、また、ある程度の心得のある者にとっても、煩雑な処理を要するものであった。
【0003】
また、従来の演奏データの表情付けの処理は、各加工項目ごとに独立して実行されるようになっていた。
1つの演奏データに対して2つの表情付け処理を重ねて実行する場合、まず、最初に実行される表情付け処理により元の演奏データが分析されて、処理結果として最初の表情付けされた演奏データが生成され、さらに次の表情付け処理によりその最初の表情付けされた演奏データがさらに分析されて、2重に表情付けされた演奏データが生成される。
しかしながら、この2重の表情付けは上手くいかない場合がある。それは、各表情付け処理が、表情の付けられていない演奏データを想定して設計されているからである。
この場合、2番目に実行される表情付け処理は、最初の表情付け処理により表情付けされた演奏データを分析するため、最初の表情付けの内容によっては適切な表情付けが行なえない可能性がある。
【0004】
【発明が解決しようとする課題】
本発明は、上述した問題点に鑑みてなされたものであって、元の演奏データの音楽表現力を高めるために、元の演奏データを基準にして演奏データの加工を行うためのパラメータの設定が、簡単でわかりやすい演奏データ加工処理装置、および、演奏データ加工処理プログラムを提供することを目的とするものである。
また、演奏データに対して、複数の加工項目についての表情付け処理を、累積的にかつ適切に行うことができる演奏データ加工処理装置を提供することを目的とするものである。
【0005】
【課題を解決するための手段】
本発明は、請求項1に記載の発明においては、演奏データ加工処理装置において、ユーザ指示に応じて、それぞれ数の加工条件の選択肢を有する複数の加工カテゴリーそれぞれについて、加工条件を選択する加工条件選択手段と、前記加工条件選択されたことに応じて、保持している前記加工条件を逐次更新する加工条件保持手段と、前記加工条件が選択されたことに応じて、前記加工条件保持手段にて保持された加工条件に基づいて1乃至複数の加工項目を特定し、該特定された加工項目に対応するパラメータを自動選択するパラメータ自動選択手段と、ユーザ指示に応じて、前記自動選択されたパラメータに対する設定値を入力する設定値入力手段と、前記設定値が入力されたことに応じて、保持している前記設定値を逐次更新する設定値保持手段と、ユーザ指示により加工処理の開始が指示されたことに応じて、元の演奏データを基準にして、前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持手段に保持された前記設定値に応じて、前記元の演奏データを変化させる演奏データ加工処理手段を有するものである。
したがって、元の演奏データを基準にして演奏データの加工を行うための具体的なパラメータの種類を加工条件を選択するだけで行える。その結果、演奏データの音楽表現力を高める加工を、わかりやすく簡単に行うことができる。
加工条件としては、楽器種類、ジャンル、リズムタイプなどのカテゴリー別に用意することができる。また、演奏データを変化させるために自動選択されるパラメータとしては、音符の強さ(音量,ベロシティ)、音高(ノートナンバ)、時間(ノートオンタイミング、ゲートタイムなど)、あるいはこれらの変動量などがあり、演奏方法(ビブラート、スイング、ハーモニーバランス、クレッシェンド、ストロークなど)のカテゴリー別にまとめることもできる。
【0006】
請求項2に記載の発明においては、請求項1に記載の演奏データ加工処理装置において、過去において前記演奏データ加工処理手段にて演奏データを変化させる処理が実行されたときに使用された前記加工条件を保持し、該保持された加工条件を前記加工条件選択手段にて選択される加工条件の初期値として前記加工条件保持手段に出力する初期加工条件出力手段を有するものである。
したがって、起動時に選択される初期加工条件が、ユーザの過去の使用状態を反映したものとなるために、初期加工条件をそのまま使用できる可能性が高いので、加工条件の選択も簡単になる。加工条件は初期加工条件に固定されるのではなく、ユーザは、加工条件選択手段によって任意に加工条件を修正できる。
ユーザの過去の使用状況に応じた初期加工条件としては、例えば、前回使用した加工条件、使用頻度の最も高い加工条件とすることができる。
【0007】
請求項3に記載の発明においては、請求項1に記載の演奏データ加工処理装置において、前記演奏データ加工処理手段で加工対象となっている前記元の演奏データを解析することにより前記加工条件を自動選択し、該自動選択された加工条件を前記加工条件選択手段にて選択される加工条件の初期値として前記加工条件保持手段に出力する初期加工条件出力手段を有するものである。
したがって、起動時に選択される初期加工条件が、加工対象となっている元の演奏データに適したものとなるため、初期加工条件をそのまま使用できる可能性が高いので、加工条件の選択も簡単になる。加工条件は初期加工条件に固定されるのではなく、ユーザは、加工条件選択手段によって任意に加工条件を修正できる。
加工対象となっている元の演奏データの解析は、例えば、この演奏データに設定されている音色の設定データを検索したり、この演奏データの曲名データを検索したり、演奏データのリズムパターンを分析したりして、適切な加工条件を選択する。
【0008】
請求項4に記載の発明においては、請求項1から3までのいずれか1項に記載の演奏データ加工処理装置において、去において前記演奏データ加工処理手段にて演奏データを変化させる処理が実行されたときに使用された前記加工条件に対応するパラメータの設定値をそれぞれ保持し、該保持されたパラメータの設定値を、当該加工条件に対応する前記パラメータの初期設定値として出力する初期設定値出力手段を有し、前記設定値保持手段は、前記パラメータ自動選択手段により前記パラメータが自動選択されたとき、前記加工条件保持手段に保持された加工条件に応じて、当該自動選択されたパラメータの値に前記初期設定値出力手段により出力された前記初期設定値を設定するものである。
したがって、所定の加工条件に応じて自動選択されたパラメータに対する設定値が、ユーザの過去の使用状態を反映したものとなるために、設定値をそのまま使用できる可能性が高いので、設定値の選択も簡単になる。設定値は初期設定値に固定されるのではなく、ユーザは、設定値入力手段によって任意に設定値を修正できる。
ユーザの過去の使用状況に応じた初期設定値としては、例えば、前回使用した設定値、使用頻度の最も高い設定値とすることができる。
【0009】
請求項5に記載の発明においては、請求項1から3までのいずれか1項に記載の演奏データ加工処理装置において、記演奏データ加工処理手段で加工対象となっている前記元の演奏データを解析することにより、前記加工条件に対応する前記パラメータの初期設定値を生成して出力する初期設定値出力手段を有し、前記設定値保持手段は、前記パラメータ自動選択手段により前記パラメータが自動選択されき、前記加工条件保持手段に保持された加工条件に応じて、当該自動選択されたパラメータの値に前記初期設定値出力手段により出力された前記初期設定値を設定するものである。
したがって、所定の加工条件に応じて自動選択されたパラメータに対する設定値が、所定の加工条件下において、加工対象となっている元の演奏データに適したものとなるために、設定値をそのまま使用できる可能性が高いので、設定値の選択も簡単になる。設定値は初期設定値に固定されるのではなく、ユーザは、設定値入力手段によって任意に設定値を修正できる。
加工対象となっている元の演奏データの解析は、例えば、この演奏データの音符の強さや音高の統計的分布を解析して、適切な設定値を選択する。
【0010】
請求項6に記載の発明においては、請求項1から5までのいずれか1項に記載の演奏データ加工処理装置において、元の演奏データを記憶する演奏データ記憶手段と、加工処理中の前記演奏データを一時記憶する一時記憶手段とを有し、前記演奏データ加工処理手段は、ユーザ指示により加工処理の開始が指示されたことに応じて、前記元の演奏データを演奏データ記憶手段から前記一時記憶手段にコピーし、前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持手段に保持された前記設定値に応じて、前記演奏データ記憶手段に記憶された前記元の演奏データを分析して表情付け処理を行い、該表情付け処理の処理結果を前記一時記憶手段に記憶した演奏データに累積的に反映させるものである。
従って、演奏データに対して、複数の加工項目についての表情付け処理を、累積的にかつ適切に行うことができる。
【0011】
請求項7に記載の発明においては、演奏データ加工処理プログラムにおいて、ユーザ指示に応じて、それぞれ複数の加工条件の選択肢を有する複数の加工カテゴリーそれぞれについて、加工条件を選択する加工条件選択ステップと、前記加工条件が選択されたことに応じて、保持している前記加工条件を逐次更新する加工条件保持ステップと、前記加工条件が選択されたことに応じて、前記加工条件保持手段にて保持された加工条件に基づいて1乃至複数の加工項目を特定し、該特定された加工項目に対応するパラメータを自動選択するパラメータ自動選択ステップと、ユーザ指示に応じて、前記自動選択されたパラメータに対する設定値を入力する設定値入力ステップと、前記設定値が入力されたことに応じて、保持している前記設定値を逐次更新する設定値保持ステップと、ユーザ指示により加工処理が指示されたことに応じて、元の演奏データを基準にして、前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持ステップに保持された前記設定値に応じて、前記元の演奏データを変化させる演奏データ加工ステップを有するものである。
したがって、このプログラムをコンピュータに実行させることによって、請求項1に記載の発明を実現することができる。
【0012】
【発明の実施の形態】
図1は、本発明の実施の一形態の説明図である。
図1(a)はブロック構成図、図1(b)は加工条件のリスト、図1(c)は加工項目のリスト、図1(d)はパラメータとその設定値のタブダイアログによるリストである。
図1(a)において、1は初期加工条件出力部、2は加工条件保持部、3はパラメータ自動選択部、4はパラメータ初期設定値出力部、5はパラメータ保持部、6は演奏データ加工処理部、7は表示画像作成部である。
【0013】
ユーザが演奏データ加工処理を起動すると、初期加工条件出力部1は、初期加工条件を加工条件保持部2に出力する。加工条件保持部2は、ユーザにより、複数種類の加工条件の中から加工条件が選択される毎に、保持している加工条件を逐次更新する。
図1(b)に示すように、加工条件として、例えば、楽器、ジャンル(genre)、タイプのカテゴリからそれぞれ1つを選択する。
パラメータ自動選択部3は、加工条件保持部2に保持された加工条件に応じて、図示しないルックアップテーブルを参照して、複数種類のパラメータの中からパラメータを自動選択する。図1(b)に丸印を付した加工条件が入力されたときには、図1(c)に○印を付した加工項目が選択される。
【0014】
図1(c)に○印を付した各加工項目毎に、図1(d)に示すように、具体的なパラメータ種類の1セットが用意されているので、これらのパラメータが自動選択されることになる。
パラメータ初期設定値出力部4は、自動選択されたパラメータを入力して初期設定値を出力する。
パラメータ保持部5は、自動選択されたパラメータおよび初期設定値を保持する。パラメータ保持部5は、ユーザにより、自動選択されたパラメータに対する設定値を入力する毎に、保持している設定値を逐次更新する。
演奏データ加工処理部6は、例えば、予め演奏データと演奏データ加工範囲(トラック,ブロック等、場合により、音符,音符列)を入力して記憶手段に格納している。
【0015】
ユーザが、演奏データの加工処理の開始を、演奏データ加工処理部6に対して指示すると、演奏データ加工処理部6は、加工範囲内の演奏データを元の演奏データとし、この元の演奏データを基準に、パラメータ保持部5に保持された、自動選択されたパラメータに対する設定値に応じて、元の演奏データを変化させることにより、演奏データを加工して記憶手段に格納する。あるいは、加工処理された演奏データを出力する。
その際、加工範囲内の演奏データを自動分析して、自動選択されたそれぞれのパラメータの値を加工するのが適切であると判定した音符,音符列に対してのみ、加工処理を行う。自動選択されたパラメータは、加工項目毎のセットになっているから、通常は、加工項目単位で加工処理が適切かどうかを判断する。
【0016】
表示画像作成部7は、加工条件保持部2に保持された加工条件と、パラメータ保持部5に保持された自動選択されたパラメータの種類およびその設定値を表示器に表示させるための表示画像を作成する。ユーザは、この表示画像を見ながら、加工条件の選択、パラメータの設定値入力、加工処理開始指示などを行う。
表示画像作成部4は、特に、図1(d)に示したような、選択された各加工項目のタブダイアログ8を作成して表示器に表示させる。各タブダイアログ8には、その加工項目に属するパラメータが表示されるとともに、その設定値の表示を兼ねた入力部8a(表示画面上の仮想入力部)を有している。
【0017】
なお、ボタン8b(表示画面上の仮想ボタン)は、この加工項目の設定の有効/無効を決める。無効に設定したときには、パラメータ保持部5に保持され、入力部8aに表示された設定値は、加工処理開始の指示があっても、演奏データ加工処理部6に出力されない。加工項目、パラメータが選択されたとき、ユーザの希望によっては、そのうちのいくつかの加工項目、パラメータについては、加工処理をしたくないという場合があり得る。このような場合に、効果を付けるかどうか(加工処理を有効にするか無効にするか)を、ワンタッチで設定できる。
【0018】
加工項目は、複数個が選択される場合が多いが、タブダイアログの表示では、図1(d)に示すように、その内の1つだけがパラメータまで表示される。他の加工項目はタブだけが表示され、いずれかのタブを選択すれば、対応するタブダイアログが開いてパラメータまで表示される。
また、自動選択されたパラメータの設定値については、サンプル用の画像上にグラッフィク表示することもできる。
【0019】
図1(b)には、演奏奏法や効果に密接に関連し、かつ、間接的に加工項目に関連するような加工条件を、一例として示している。
ここでは、演奏奏法や音源部で生成される楽音信号を特徴付ける「楽器」、楽曲の音楽様式を示す「ジャンル」、リズムの種類を表す「タイプ」を例示している。
この他に、どのような「フィーリング」あるいは「発想」で演奏を想定しているかを加工条件とすることも考えられる。あるいは、具体的な「作曲者」や具体的な「演奏者」を加工条件として、これらの作曲者や演奏者の音楽表現力の特徴につながる加工項目を選択するようにしてもよい。
【0020】
上述したパラメータの初期加工条件出力部4が出力する初期加工条件の作成方法としては、複数の方法があるので、これについて説明を加えておく。
第1の方法は、各加工条件として、標準的なものを保存しておき、この加工条件を用いる方法である。
第2の方法は、過去において、パラメータ保持部5に保持されたパラメータの設定値が演奏データ加工処理部6に出力されるときに使用された、加工条件の使用状況に応じて、初期加工条件を作成する方法である。
例えば、前回使用された加工条件、あるいは、使用頻度の最も高い加工条件を初期加工条件とする。そのために、初期加工条件出力部は、過去の使用状況を保存するものとする。この保存は、電源オフ時にも消去されない記憶装置に保存するとよい。電源バックアップされたRAM、あるいは、フラッシュメモリにアクセス可能であれば、これらに書き込むとよい。
【0021】
第3の方法は、演奏データ加工処理部6に入力される、加工範囲内の演奏データを解析することにより、この演奏データに適合した初期加工条件を生成する。
そのためには、加工範囲における演奏データを解析する必要がある。例えば、この演奏データに設定されている音色の設定データを検索したり、この演奏データの曲名データを検索したりして、「楽器」のカテゴリー内の1つの加工条件を選択したり、演奏データのリズムパターンを分析して「タイプ」のカテゴリー内の1つの加工条件を選択したりする。
【0022】
パラメータ初期設定値出力部4における、自動選択されたパラメータの初期設定値も同様にして作成できる。ただし、そのときの加工条件に応じて生成することが望ましい。
すなわち、第1の方法としては、所定の加工条件によりパラメータが自動選択されるときに、この所定の加工条件下で標準的なものを保存しておき、この加工条件を用いる方法である。
第2の方法としては、所定の加工条件によりパラメータが自動選択されるときに、この所定の加工条件および自動選択されたパラメータを入力し、過去においてこの自動選択されたパラメータの設定値が演奏データ加工処理手段に出力されたときに、この所定の加工条件下における設定値の使用状況に応じて、初期設定値を生成する。例えば、前回使用した設定値、使用頻度の最も高い設定値とする。なお、加工項目が自動選択されていても、加工処理を行わない場合は、「効果を付けない」ことが初期設定値となる。
【0023】
第3の方法としては、所定の加工条件によりパラメータが自動選択されるときに、この所定の加工条件および自動選択されたパラメータを入力し、この所定の加工条件下において、演奏データ加工処理部6に入力される、加工範囲内の演奏データを解析することにより初期設定値を生成する。
加工対象における演奏データの解析は、例えば、この演奏データのテンポ、音符の強さや音高の統計的分布を解析して、適切な推奨値を初期設定値として生成する。
上述した説明では、加工条件の選択、加工項目の選択、パラメータの種類の選択、パラメータの設定値の入力、という階層構造をとっているので、わかりやすい設定方法となっている。しかし、加工条件を選択して、直ちに個々のパラメータ種類を選択して設定値を入力するようにしてもよい。
【0024】
図2は、本発明の実施の一形態における、パラメータの設定入力および表示を行う「アーティキュレーション(音楽表現力)」設定ダイアログ画面の説明図である。
この設定ダイアログ画面は、パーソナルコンピュータ上で実行されるシーケンサソフトウエアで用いる。
「トラックビューウインドウ(複数トラックのブロックセクションを時系列に沿って表示する)」において、1つのトラックの1つのブロックを選択し、「表示」メニューから「アーティキュレーション」を選ぶことにより、表示される。
あるいは、「スタッフウインドウ(指定されたブロックの楽譜表示)」、「ピアノロールウインドウ(指定されたブロックの各音高別のノートオンからノートオフまでの棒状表示)」、「リストウインドウ(MIDIイベントのリスト表示)」で、マウス等のポインティングデバイスを用いて、1または複数のノートイベント、言い換えれば、音符または連続する複数の音符から成る音符列を選び、「プラグイン」メニューから「アーティキュレーション」を選ぶことにより、表示される。
【0025】
図中、11はGUI(Graphical User Interface)を用いた設定入力と表示を行うダイアログ画面である。12a〜12cは加工条件を入力するドロップダウンコンボボックスであって、12aは楽器、12bはジャンル、12cはタイプについてのものである。
いずれか1つのカテゴリでも加工条件を変更すると、加工項目が自動選択されて、画面上に表示されるタブダイアログのセットが切り替わる。これに代えて、加工条件入力完了ボタンを設けておき、このボタンがクリックされたときに、加工項目のセットが自動選択され、タブダイアログのセットが切り替わるようにしてもよい。
【0026】
13は加工処理を開始指示するボタン、14は拍子の基準音価(基準音符)のドロップダウンコンボボックスである。
15はテンポが変化するようなアーティキュレーション編集を有効にするか否かを決めるボタンである。編集対象がソロ楽器のパートであれば、表情付けのために自由にテンポを変化させてよい。しかし、合奏における1つの楽器パートであると、この楽器の都合でテンポを変化させると、合奏全体としてのテンポがおかしくなるおそれがあるので、このようなボタンを設けている。
16はプレファレンスウインドウを呼び出すボタンである。プレファレンスウインドウでは、オリジナルのベロシティを無視するか、音色設定情報を出力するか、チャンネルアサインを空きチャンネルに順次割り当てるか、などの設定を行う。
17は「チョーキング」設定の、開いているタブダイアログである。18は「ビブラート」、19は「クレッシェンド/ディミヌエンド」、20は「ストローク」の閉じているタブダイアログである。
【0027】
「チョーキング」設定のタブダイアログ17において、21はサンプル表示部であって、パラメータの設定値を模式的にグラフ表示する部分である。
21aは音符が続いていない単独音の場合のチョーキングを絵表示したピアノロールの固定イメージ、21bは単独音のチョーキングのピッチ変化をモデル表示したグラフであって、こちらは設定値に応じてその表示が変化する。21cは音符が続いている連続音中の、ある1つの音符に対するチョーキングを絵表示したピアノロールの固定イメージ、21dは連続音のチョーキングのピッチ変化をモデル表示したグラフであって、その表示が設定値に応じて変化する。
なお、図示の矢印および括弧内のパラメータ名は、図面中の注釈であるが、サンプル表示部21に表示してもよい。
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、ある音符が単独音であるか連続音中の音符であるかが自動的に判別される。なお、連続音中のどの音符にチョーキング加工をするかについても自動的に決定される。
【0028】
22,24,26,28はパラメータを設定するコンボボックス、23,25,27,29はパラメータを設定するつまみである。このうち、22は単独音のチョーキング「ディレイ」であって、音符のノートオンからチョーキングによる発音開始までの遅延時間の設定および表示を行うコンボボックスである。ポインティングデバイスをこの部分に当てて、キーボードから数値を設定するか、左側に設けられたスピナをクリックすることにより、数値を変更する。ポインティングデバイスでつまみ(スライダ)23を動かすことによっても数値を変更できる。
なお、コンボボックス内の数値は、実際には、サンプル表示部21に表示されるグラフと対応するが、この図を含めて、以下の図では、対応させた数値を記載していない。
24は単独音のチョーキング「時間」であって、チョーキング開始からピッチ変化終了までの時間の設定および表示を行うコンボボックスである。ポインティングデバイスでつまみ(スライダ)25を動かすことによっても数値を変更できる。
【0029】
コンボボックス26,28、つまみ27,29は、それぞれ、連続音の途中の音符に対するチョーキング「ディレイ」、チョーキング「時間」に対する、コンボボックスあるいはつまみである。
なお、コンボボックス22等には、予め初期設定値がデフォルトで表示され、つまみ23等の位置も初期設定値に応じた位置にある。
ボタン30,31は加工処理の有効/無効ボタンである。このうち、ボタン30は、単独音に対してチョーキングの加工処理を実行させるか否かを決定するボタン、ボタン31は、連続音に対してチョーキングの加工処理を実行させるか否かを決定するボタンである。例えば、ボタン30が押されたときは、コンボボックス22,24あるいはつまみ23,25で設定された設定値は無効となり、単独音に対するチョーキングの加工処理は行われない。
【0030】
上述した説明では、「チョーキング」の加工処理について説明した。他の加工処理も、図1(d)、図2に示したような、加工処理条件によって「タブダイアログ」の1つとして表示され設定される。
また、いずれの加工処理も、「タブダイアログ」とは別に、図1(c)に示す選択された加工項目の中にある、個別の加工項目の「設定ダイアログ」を開いて設定する方法も可能である。
この他、加工項目とそのパラメータを自動選択することなく、ユーザが加工項目とそのパラメータを任意に手動選択し、任意に選択した加工項目の「設定ダイアログ」を開いて設定する方法も可能である。
以下では、図3〜図11を参照して、他の加工処理の具体例を、個別の「設定ダイアログ」の表示画面を用いて説明する。図2のように、「タブダイアログ」の1つとして表示される場合には、個別の「設定ダイアログの」のタイトルバーをタブに置き代えたような、同様の表示がなされる。
【0031】
図3は、「グルーブ」設定ダイアログ画面の説明図である。
図中、41はサンプル表示部、41aは1小節内の表拍、41bは1小節内の裏拍を示す音符のイメージであり、連続する8分音符の8拍が固定表示されている。41cはスイングの設定値によって裏拍41cが裏拍41bからずれる様子を模式的に示す音符のイメージである。スイングの設定値が変わると音符41cの表示位置も変わる。
このサンプルは、表拍と裏拍とが交互に示されているが、実際の演奏データでは、必ずしもこのような状態ではない。グルーブでは、表拍と裏拍とされるものに対する設定を行う。
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、表拍か裏拍か、自動的に判別される。
41dは1小節内の各拍のベロシティを表示する棒グラフのイメージであり、4拍を単位としたサンプルで図示している。
42は1小節内の各音符のベロシティに対する強弱の加工処理の有効/無効を設定するボタン、各音符のベロシティの設定値は、コンボボックス43またはつまみ44で行う。設定値が変わると棒グラフのイメージ41dの長さも変わる。
【0032】
45は拍子の基準となる拍子音価設定用のコンボボックス、46は音符の発音期間を音符のノートオンタイミング間の時間に対する比で示すデュレーション(ゲートタイム)を加工する処理の有効/無効を設定するボタンである。デュレーションの設定は、コンボボックス47またはつまみ48で行う。この値が小さいほど、スタッカート傾向の強い演奏となる。
49はスイングの加工処理の有効/無効を設定するボタンである。スイングの設定は、コンボボックス50またはつまみ51で行う。表拍41aの間隔に対する、最初の表拍41aと裏拍41bの間隔の比で表す。
【0033】
図4は、「ビブラート」設定ダイアログ画面の説明図である。
図中、61はサンプル表示部、61aは短い音符が連続するイメージをピアノロールで固定表示したものである。61bはビブラートのピッチ変化のデプス(ピッチ変動の周波数範囲)およびレート(ピッチ変動の変動周期)のイメージをグラフで示したものであって、設定値によってその表示が変化する。61cは長い音符のイメージをピアノロール表示で固定表示したものである。
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、ある音符が短いか長いかが自動的に判別される。
【0034】
長音には、既に示した短音に対して付加される基本的なビブラートに加えて、第2のビブラートを付加する。
61dはこの長音の音符に対して付加される第2のビブラートのピッチ変化のデプスおよびレートのイメージをグラフで示したものであって、設定値によってその表示が変化する。
ビブラート「デプス」,ビブラート「レート」の設定は、それぞれ、コンボボックス68,70またはつまみ69,71で行う。
ビブラート「ランダム」は、基本ビブラートのピッチの一定周期の変動に、ランダムな変動を加える場合の、ランダム変動の偏差を設定する。その設定は、コンボボックス66またはつまみ67で行う。
ボタン72は、ビブラートの加工処理全体について、効果付与を行うか否か、すなわち、加工処理の有効/無効を設定する。
【0035】
図5は、「ハーモニーバランス」設定ダイアログ画面の説明図である。
図中、81はサンプル表示部、81aはメロディ音符よりも高い音符のイメージ、81bはメロディ音符のイメージ、81cはメロディ音符よりも低い音符のイメージを示したものである。これらのイメージ表示は固定されている。
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、メロディ音符、および音符の高低が自動判定される。
それぞれのベロシティをレベルメータ状の棒グラフ81d,81e,81fで表示し、設定値によって棒の長さが変化する。
上述した高い音符のベロシティ(高音強調)、メロディ音符のベロシティ(メロディ強調)、低い音符のベロシティ(低音強調)の設定は、それぞれ、コンボボックス82,84,86またはつまみ83,85,87で行う。
ハーモニーバランスの加工処理の全体の有効/無効の設定は、ボタン88で行う。
【0036】
図6は、「クレッシェンド/ディミヌエンド」設定ダイアログ画面の説明図である。
ここでいう、クレッシェンド/ディミヌエンドは、曲想に変化を与えるために、数小節にわたる比較的長い周期で、音符のベロシティ(音の強さ、音量)を曲の進行とともに緩やかに変化させるというものである。
「クレッシェンド/ディミヌエンド1,2」では、複数の音符からなる音符列に対し、そのベロシティを曲の進行とともに周期的に変化させるもので、周期の異なる変化を組み合わせることにより、より自然なうねりを表現できる。
一方、ベロシティを曲の進行とともに段々と増加あるいは減少させる場合は、「全体クレッシェンド/ディミヌエンド」を用いる。
【0037】
図中、91は拍子音価のコンボボックス、92はサンプル表示部である。
曲の進行に沿って横軸右方向に音符が配列表示されているとしたとき、各音符の発生タイミングにおける、第1の三角波形92a,第2の三角波形92b,直線92cの縦軸方向のレベルが、それぞれ、各音符に対する第1のクレッシェンド/ディミヌエンド,第2のクレッシェンド/ディミヌエンド,全体クレッシェンド/ディミヌエンドの重み係数を表す。
例えば、第1,第2のクレッシェンド/ディミヌエンドの重み係数の和に、全体クレッシェンド/ディミヌエンドの重み係数を乗算したものを、各音符のベロシティに乗算する重み係数とする。
第1,第2のクレッシェンド/ディミヌエンド、全体クレッシェンド/ディミヌエンドの設定値が変わると、それぞれの重み係数が変わるので、グラフの表示も変わる。
【0038】
第1のクレッシェンド/ディミヌエンド「デプス(重み係数の変動幅)」の設定は、コンボボックス94またはつまみ95で行う。
第1のクレッシェンド/ディミヌエンド「レート(重み係数の変動周期)」の設定は、コンボボックス96またはつまみ97で行う。第1のクレッシェンド/ディミヌエンド「タイミングシフト(ある基準からの変動の時間差)」の設定は、コンボボックス98またはつまみ99で行う。第2のクレッシェンド/ディミヌエンドのパラメータも、同様にしてコンボボックス101,103,105またはつまみ102,104,106によって設定できる。
全体クレッシェンド/ディミヌエンドの「始点音量(始点における重み係数)」、「終点音量(終点における重み係数)」の設定は、それぞれ、コンボボックス108,110またはつまみ109,111によって行う。
第1,第2のクレッシェンド/ディミヌエンドの有効/無効は、それぞれ、ボタン93,100によって行う。全体クレッシェンド/ディミヌエンドの有効/無効は、ボタン107によって行う。
【0039】
図7は、「チョーキングジャンプ」設定ダイアログ画面の説明図である。
121はサンプル表示部である。121aは短い音符に対するチョーキングをピアノロールのイメージで固定表示したものである。121bは短い音符に対するチョーキングのピッチ変化をモデル表示したグラフであって、設定値に応じてその表示が変化する。
短い音符のチョーキング「ディレイ(発音開始までの遅延時間)」の設定は、コンボボックス122またはつまみ123で行う。
短い音符のチョーキング「時間(チョーキング開始からピッチ変化終了まで)」の設定は、コンボボックス124またはつまみ125で行う。
チョーキング開始からピッチ変化終了までのピッチ差であるチョーキング「始点音程」も設定でき、コンボボックス126またはつまみ127で行う。
ボタン128は、チョーキングジャンプの加工処理の有効/無効を設定する。
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、ある音符が短いか長いかは自動的に判別される。
このチョーキングジャンプ設定ダイアログ画面と同様なチョーキングロング設定ダイアログもある。音符の長さが所定値以上のときは、チョーキングジャンプとは別に、チョーキング「ディレイ」、チョーキング「時間」、チョーキング「始点音程」を設定する。
【0040】
図8は、「スライド」設定ダイアログ画面の説明図である。
図中、131はサンプル表示部、131aは単独音を示すピアノロールの固定イメージである。131bは単独音に対するピッチのスライド変化をモデル表示したグラフであって、その表示が設定値に応じて変化する。131cは連続音を示すピアノロールの固定イメージである。131dは連続音中の1音符に対するピッチのスライド変化をモデル表示したグラフであって、その表示が設定値に応じて変化する。この図でも、矢印、括弧内のパラメータ名は、図面の注釈であるが、サンプル表示部131の表示内容にしてもよい。
単独音に対し、ピッチは、階段の高さ(100セント)を一定にして階段状に変化する。したがって、「始点音程」によって階段の数が変化し、階段の幅は、設定された(ディレイ+時間)によって変化する。
連続音中の1音符に対し、ピッチは、階段の高さと数は一定で階段状に変化する。したがって、階段の幅は、設定された(ディレイ+時間)によって変化する。
【0041】
図1(a)に示した演奏データ加工処理部6において、設定された加工範囲内の演奏データが分析されて、ある音符が単独音であるか連続音中の1音であるかは自動的に判別される。
ボタン132は、単独音に対するスライドの加工処理の有効/無効を設定する。
単独音に対するコンボボックス133,135,137、または、つまみ134,136,138は、それぞれ、単独音のスライド「ディレイ」,「時間」,「始点音程」の設定を行う。
一方、ボタン139は、連続音中の1音符に対するスライドの加工処理の有効/無効を設定する。連続音に対するコンボボックス140,142、または、つまみ141,143は、それぞれ、連続音のスライド「ディレイ」、「時間」のパラメータの設定を行う。
【0042】
図9は、「コードストローク」設定ダイアログ画面の説明図である。「コードストローク」(図1においては、「ストローク」と省略表現した)は、同時発音の和音として記述された演奏データ、すなわち、和音の音程関係にあって、同時発音かほぼ同時発音の複数の音符(通常、6弦に対応させて6音、以下、ストローク演奏部分という)に対し、音符の発音タイミングのばらしや、音符のベロシティの不均一さを与えることによって、ギターのコードストローク奏法の表情を付ける処理である。
図1(a)に示した演奏データ加工処理部6において、設定された所定範囲内の演奏データを分析して、上述した「ストローク演奏部分」を自動判別し、この「ストローク演奏部分」を加工する。原則としては、図1(a)に示した演奏データ加工処理部6が、加工するのが適切であると判定した「ストローク演奏部分」に対してのみコードストローク加工処理を行うのであるが、全ての「ストローク演奏部分」に対して加工処理を行うようにしてもよい。
【0043】
図中、151は、ストローク加工処理を有効/無効に設定するチェックボタン、152は共通拍子音価の表示部、153は基準音価を設定するコンボボックスである。
ストローク奏法には、低弦側から高弦側に向かって掻き鳴らす「ダウンストローク」とその逆順の「アップストローク」とがある。一般に、隣接する「ストローク演奏部分」間の時間間隔が長い場合には、「ダウンストローク」のみを行った方が自然である。逆に、隣接する「ストローク演奏部分」間の時間間隔が短い場合には、ダウンとアップとを交互に繰り返す方が自然である。基準音価は、この境目の時間間隔を設定するものである。
【0044】
図示のコンボボックス153には、連桁された16分音符が表示されているが、これは、隣接する「ストローク演奏部分」が、16分音符2つ分の長さの組み合わせまでは、ダウンとアップの組み合わせとするが、それより長い組み合わせでは、ダウンのみを基本とするストロークを用いることを意味する。この設定の場合、8分音符が連続した場合には、「ダウンストローク」+「アップストローク」にならず、全て「ダウンストローク」になる。
【0045】
「ストローク速度」,「ストローク強度」,「ダウン/アップ差」の設定は、それぞれ、つまみ154,156,158またはコンボボックス155,157,159で行う。「ストローク速度」は、例えば、「ダウンストローク」の場合、最低限から最高弦までの発音の時間差である。「ダウン/アップ差」は、「ダウンストローク」と「アップストローク」とで、ストローク強度に差を持たせる設定を行う。
「長音判定」は、入力された「ストローク演奏部分」の長さを判定する閾値であり、つまみ160またはコンボボックス161で行う。長音に対する「長音のストローク速度」は、つまみ162またはコンボボックス163で行う。
【0046】
図10は、「ストロークミュート」設定ダイアログ画面の説明図である。
ストロークミュート(Stroke Mute)とは、図1(a)に示した演奏データ加工処理部6において、設定された加工範囲の演奏データについて、連続する複数の「ストローク演奏部分」に対し、その一部の「ストローク演奏部分」を、所定パターンで部分的に発音させない(ミュート)加工をいう。この設定ダイアログではミュート位置を指定する。
171はストロークミュートの有効/無効を設定するボタン、172は共通拍子音価の表示部、173は後述する拍子音価を設定するコンボボックスである。
【0047】
174a〜174dは1小節内で、ストローク演奏する拍子とストロークミュートする拍子についての単位パターンを、通常の音符と符頭が×印の音符で示す1小節のイメージである。1つの16分音符が、1つの「ストローク演奏部分」を表している。各音符をマウスでクリックすれば、符頭が、黒丸と×印とに交互に切り替わるので、ミュートの基本パターンを設定できる。
さらに、左つまみ175a,右つまみ175bを動かす(左右の反復記号176a,176bもスライドする)ことにより、どのような拍子にも対応可能になっている。
図示の例では、単位パターンが、174a,174b,174c,174b,174cのように選択されるので、4分の5拍子の5拍目までを指定できる。
図示の単位パターン174a〜174dは、16分音符で固定表示されているが、この16分音符が実際の音符で何音符に相当するかを、コンボボックス173に入力する拍子音価で決める。図示の例では、実際の音符と一致しているので、1拍を4分音符として数えていることになる。
【0048】
図11は、「ストロークシンアウト」設定ダイアログ画面の説明図である。
ストロークシンアウト(Stroke Thin Out)は、ギターのカッティング奏法の表情付けを行う処理に関連する設定である。「ストローク演奏部分」において、6弦を全て発音させるのではなく、条件に応じて発音させない弦を決める。「ダウンカッティング」と、この逆の「アップカッティング」の場合があるが、前者について具体的に説明する。
「ダウンカッティング」では、音量が弱いとき、および、ストローク速度が速いとき、低弦側から高弦側に、指定される弦数だけ発音をさせない。「ストローク演奏部分」を発音する音量に対し、この音量に応じて発音させる弦数を決める。音量が小さいときには第1弦(最高弦)のみを発音させ、音量が大きくなるにつれ、第2弦、第3弦…と、発音させる弦を段階的に低弦側に増やす。
また、ストローク速度が速くなるほど発音させる弦数を少なくする。
このような音量やストローク速度に対して、発音させる弦数を減らす程度を決定するのが、ストロークシンアウト設定である。
177はストロークシンアウトの有効/無効を設定するボタンである。つまみ178またはコンボボックス179で、発音させる弦数を減らす程度を設定する。
【0049】
以上で、表情付けを行うための設定画面の具体例の説明を終える。
上述した、図2ないし図11に示した設定画面は、本発明をパーソナルコンピュータを用いて実現する場合の表示画面であった。しかし、コンピュータ(CPU)により制御される電子楽器を用いて実現することもできる。電子楽器では、表示器の面積や分解能に制約があるので、表示形態を簡略化する必要がある。しかし、多数の現実の操作子をパネル上に設けることができるので、表示画面では設定値を表示できればよく、仮想的な操作子を特に設ける必要はない。
【0050】
図12は、本発明の実施の一形態を、電子楽器で実現する一例を示すハードウエア構成図である。
図中、181はバスであって、CPU(Central Processing Unit)182を始めとするハードウエアブロックが接続され、データやアドレスが転送される。CPU182は、電子楽器全体の操作入力や表示出力等の一般的な制御動作をするとともに、本発明の演奏データ加工処理を実行する。
【0051】
183はROM(Read Only Memory)であって、本発明の演奏データ加工処理プログラム等、CPU182を動作させるためのプログラムのほか、各種のパラメータデータ、曲データ等が記憶されている。184はRAM(Random Access Memory)であって、CPU182がプログラムを実行するときに必要とするワーキングメモリとなる。演奏データや各種データを一時的に保持するレジスタやフラグを記憶する領域を含む。
185はタイマーであって、プログラム実行中の時間を計測して、CPU182のタイマー割り込み、自動演奏のテンポクロック供給などの時間管理を行う。
【0052】
186は外部接続されたMIDI鍵盤やシーケンサ等の演奏機器であって、インターフェース187を介して演奏データを入力する。シリアルケーブルを介して接続されるほか、ネットワークを介してインターネット上のサーバに接続されて、サーバ側から演奏データを外部記憶装置191にダウンロードする。演奏データを受信しながらストリーミング再生する場合もある。
188はパネルに設けられた設定操作子であって、本発明における加工条件やパラメータの設定値の入力のほか、電子楽器の動作モードや楽音信号の音色,効果等、種々の設定を行う。189は鍵盤やドラムパッド等、音符等を入力する演奏指示操作子である。自動演奏専用装置の場合は特に必要としない。
【0053】
190は表示器であって、演奏データや、現在の動作モード、加工条件、パラメータ、設定値等を表示する。191は曲データ等を記録再生、あるいは再生のみ可能な外部記憶装置であって、例えば、FDD(フレキシブルディスク駆動装置)、半導体メモリカード記録再生装置、HDD(ハードディスク駆動装置)等である。本発明の演奏データ加工処理プログラムを格納したものでもよい。
192は音源であって、バス181を介して入力されたパラメータに基づいて楽音信号を生成する。193はDSP(Digital Signal Processor)であって、楽音信号にリバーブ等の効果音を付したり、複数パートの楽音信号をミキシング処理したりする。DSP193の出力は、図示しないD/A変換器を介し、アナログの楽音信号にされて、サウンドシステム194に出力される。サウンドシステムでは、音量調整、音量増幅を行ってスピーカ等から楽音信号を放音させる。
【0054】
上述した説明では、本発明をコンピュータ(CPU)により制御される電子楽器を用いて実施する構成を説明したが、本発明をパーソナルコンピュータを用いて実施する場合には、次のようになる。
すなわち、コンピュータに実行させることにより本発明を実現する演奏データ加工処理プログラムを、オペレーティングシステムの下で動作するアプリケーションプログラムとして、CD-ROM等の記録媒体に記録しておき、この記録媒体からハードディスクにインストールする。あるいは、このプログラムをネットワーク上のサーバからハードディスクにダウンロードする。
この場合、音源部およびDSPは、サウンドカード上にハードウエアとして備えて機能を実現させるか、ソフトウエア音源としてCPUで音源機能および効果付加機能を実現させる。
【0055】
図13〜図16は、本発明の実施の一形態を、シーケンスソフトウエアの一部として実現する場合の処理を説明するためのフローチャートである。図12に示したような電子楽器で実現する場合も、操作子の操作検出や表示画面の制御を変更すれば同様な処理で実現できる。
図13は、メインルーチンのフローチャートである。
図14は、図13における「表示画面入力処理」の詳細を示すフローチャートである。
図15は、図14における「表情付けの設定処理」の詳細を示すフローチャートである。
図16は、図13における「楽音信号の生成処理」の詳細を示すフローチャートである。
【0056】
図13において、演奏処理プログラムの実行を開始し、S201において、RAMの内容をクリアすることにより、レジスタやフラグ等の初期化を行う。
S202において、表示画面上の仮想的な設定操作子の操作入力イベントを受け付け、本発明の演奏データ加工処理を始めとする楽曲データの編集や、自動演奏の動作モードの設定や、自動演奏する楽音信号の音色、効果等の種々の設定を行う。
S203において、演奏データに基づいて楽音信号を生成する。自動演奏モードのときに、演奏データは、外部記憶装置あるいはROMから読み出されたり、外部の演奏機器から送信されて来たりする。実演奏モードにおいては、表示画面上の仮想的な演奏操作子、または、パーソナルコンピュータのキーボードを用いて、演奏者が入力した演奏データが作成される。
S204において発音処理を行う。自動演奏あるいは実演奏を実行しているときには、演奏データに基づいて楽音信号を生成し、これに効果処理を付して増幅しスピーカから出力させる。
【0057】
図14に示すS211において、図12に示した表示画面上の仮想の設定操作子に入力イベントが発生したか否かを判定し、何らかの入力イベントが発生したときには、S212に処理を進め、入力イベントが発生していなければ、図13に示したメインのフローチャートに戻る。
S212において、まず入力イベントが表情付け処理の選択に関するものか否かを判定する。そうであれば、S213に処理を進め、そうでなければS214に処理を進める。
【0058】
ここで、表情付けとは、入力された演奏データに対し、アーティキュレーション機能を実行して、音楽表現力を向上させるものである。本発明の演奏データ加工処理は、この表情付けの処理の一機能であるが、以下、本発明の演奏データ加工処理のみを前提に説明する。
S213において、入力される演奏データの範囲設定が、既に後述するS235においてなされているか否かを判定する。演奏データ加工処理は、楽曲データ全体に行ってもよいが、通常は、その1トラックの1ブロックであるが、1音符または、1ないし数小節のフレーズの音符列でもよく、ユーザが選択して行う。
範囲設定されているときはS215に処理を進め、範囲設定されていないときはS216に処理を進める。
S215においては、図16に示す表情付けの設定を行う。
【0059】
図16において、図2の設定画面を参照して、表情付けの設定を説明する。
S241において、図2に示したような設定画面を表示する。この設定画面では、図1を参照して説明したように、例えば、標準的な加工条件が、ドロップダウンコンボボックス12a,12b,12cに初期設定表示される。
スピナをクリックしてリストを表示させ、所望の加工条件をクリックして選択する。
これらの加工条件により選択された複数の加工項目のうち、最初の加工項目のタブダイアログとして、チョーキング処理のタブダイアログ17が開いており、この加工項目に属する各パラメータについては、コンボボックス22,24,26,28に初期値として、上述した加工条件下において、例えば、標準的な設定値が表示される。
【0060】
S242において、加工条件を変更する指定があったか否かを、ドロップダウンコンボボックス12a,12b,12cのスピナがクリックされたか否かによって判定し、変更指定があるときにはS243に処理を進め、ないときにはS244に処理を進める。
S243において、ドロップダウンコンボボックス12a,12b,12cを開いて入力を受け付ける。ユーザが「楽器」、「ジャンル」、「タイプ」の項目の1つを選択して、加工条件を変更する。
S245において、入力された加工条件に適合した1または複数の加工処理を選択し、加工対象のパラメータと、このパラメータの初期設定値を記憶装置から読み出し、S246において表示画面に表示し、S244に処理を進める。
【0061】
S244においては、ユーザが変更したいパラメータを選択したか否かを判定し、選択したときにはS247に処理を進め、選択していないときにはS248に処理を進める。S247においては、パラメータが選択されたことがわかるように、表示形態を変更する。例えば、スピナのボタンあるいはつまみが押されたかのような画像を一時的に表示してS248に処理を進める。
S248において、現在選択されている設定パラメータについて、ユーザが設定値の変更をしたか否かを判定し、変更した場合には、S249に処理を進め、変更していないときには、S250に処理を進める。
S249においては、設定値を受け付ける。S251において、受け付けた設定値に従って、表示画面のサンプル画面のグラフを変更してS250に処理を進める。
S250において、ユーザが設定内容に納得して「処理実行」を入力したか否か、すなわち、ボタン13の操作があったか否かを判定し、入力したときには、図14のS217に戻り、S217の「表情付け処理」を実行するが、そうでないときには、S252においてユーザにより「EXIT操作」(図示しないEXITボタン等の操作あるいは当該画面を閉じる操作等)が入力されたか否かを判定する。EXIT操作が入力された場合は、図14のAに戻って、表示画面入力処理を終了し、図13のメインルーチンに戻り、そうでないときにはS242に処理を戻して表情付けの設定処理を継続する。
【0062】
再び、図14に戻って説明を続ける。
図14のS217においては、選択されたパラメータの設定値に従って、範囲選択されている演奏データの特性変更を実行することにより、演奏データを加工する。
その際、まず、範囲選択された演奏データを処理用バッファにコピーするとともに、図1(c)に示されたような、加工条件に従って選択されている各加工項目について、順次、その加工項目の処理を施すのにふさわしい音符、あるいは音符列を自動的に選択して、選択された音符列に対する特性変更処理を自動的に決定し、その決定された特性変更処理を処理用バッファに記憶された演奏データに対して累積的(蓄積的)に施す。
設定値によっては、単独音か連続音か、短音か長音かによって設定値が異なったり、ストローク演奏部分かどうかによって加工処理をするかどうかが決まったりするので、これらの判定も行う。この際、ボタン8b等により無効とされている加工項目や、ボタン30、31等により無効とされている加工処理に関しては、表情付けの処理を実行しない。
【0063】
計算実行中は、処理中を示すレベルメータダイアログを表示する。レベルメータダイアログを表示中に、このダイアログ上の「キャンセルボタン」を押すと計算を中断する。
S218においては、処理用バッファに記憶されている演奏データを出力し、S219において記憶装置に保存する。特性変更された演奏データは、元の演奏データを上書きして保存してもよいし、別の演奏データとして保存してもよい。ここで、保存される演奏データには、複数の加工条件についての表情付けが行われている。この演奏データは通常の自動演奏装置で再生可能であり、複数加工条件で表情付けされた楽音を楽しむことができる。
なお、S218においては、特性変更された演奏データ区間の演奏データに基づいて音源部を制御して楽音信号を生成して演奏させるようにしてもよい。
【0064】
特性変更された演奏データは、通常、入力された演奏データと同一の形式に従って音符などを記述するものとする。例えば、元の演奏データがMIDIメッセージを用いたSMF(Standard MIDI File)の楽曲データであれば、出力する演奏データもSMFとする。
しかし、特性変更された演奏データを保存しないで、音源部あるいは効果付与部を制御して楽音信号を発生させるだけであれば、SMFを出力するのではなく、入力された演奏データを、音源部を制御するパラメータに変換したものを、選択された設定パラメータの設定値に従って変更したのもを演奏データとして、そのまま、音源部や効果付与のDSPに出力してもよい。
【0065】
S213において範囲設定がなかったときについて説明する。このとき、S216に処理を進め、ユーザに対してリアルタイム処理を希望しているか否かを問い合わせるメッセージボックスを開き、リアルタイム処理を希望しているという応答があった場合にはS220に処理を進め、そうでなければS221に処理を進める。
ここで、リアルタイム処理とは、ROMや外部記憶装置から自動演奏データを読み込んで演奏する場合、あるいは、外部の演奏機器から送信されてきた演奏データをストリーミング再生する場合、あるいは、演奏指示操作子によって実演奏する場合を意味する。言い換えれば、演奏データを直ちに処理して楽音信号の生成と発音処理とを行う場合である。なお、リアルタイム処理でない場合とは、演奏データの作成あるいは編集等の加工処理である。
S220においては、リアルタイム処理の設定を受け付けて、S222において、図16を参照して説明したような、ユーザが選択した表情付けの設定をして、「処理実行」の入力に応じて図13に示したメインフローチャートに戻る。一方、S221においては、範囲未設定の警告表示をして図13に示したメインフローチャートに戻る。
【0066】
次に、S212において、表情付け処理の選択がなかったときに処理を進めるS214から説明する。
S214において、表示画面上の仮想の操作子による入力イベントが自動演奏モードを設定するものであるか否かを判定し、そうであればS223に処理を進め、そうでなければS224に処理を進める。
S224においては、範囲選択があるか否かを判定し、あるときにはS235に処理を進め、ないときにはS236に処理を進める。S235においては、範囲設定をしてメインフローに戻る。ここで行う範囲設定は、先にS213で触れたように、演奏データを変更する範囲(トラックとブロック)であって、この範囲の演奏データに対して、加工条件による設定パラメータが変更される。
S236においては、指示のあったその他のことを実行してメインフローに戻る。
【0067】
S223において、外部の演奏機器からの演奏データを演奏する設定指示であるか否かを判定し、そうであれば、S225に処理を進め、そうでなければS226に処理を進める。
S225において、このモードの具体的な設定内容に関するユーザ選択を受け付け、S227において、外部から入力される演奏データに関する処理を設定して、メインフローに戻る。
一方、S226においては、記憶装置に記憶されている自動演奏曲の設定指示であるか否かを判定する。そうであればS228に処理を進め、そうでなければS229に処理を進める。
【0068】
S228においては、ユーザが選択した演奏曲を受け付けて、S230において自動演奏曲の演奏データを記憶装置から読み出す設定をし、メインフローに戻る。
一方、S229においては、ユーザによる再生指示であるか否かを判定する。そうであればS231に処理を進め、そうでなければS232に処理を進める。
S231においては、指定された自動演奏曲の演奏データを読み出して再生を開始し、メインフローに戻る。
一方、S232においては、ユーザによる自動演奏中の停止指示であるか否かを判定する。そうであればS233に処理を進め、そうでなければS234に処理を進める。
S233においては、自動演奏を停止する。
一方、S234においては、自動演奏に関するその他の指示を実行してメインルーチンに戻る。
【0069】
図15は、図13における楽音信号の生成処理の詳細を説明するフローチャートである。
S261において、先に図14のS231で自動演奏が開始されて再生中であるか否かを判定し、再生中であればS262に処理を進め、再生中でなければS263に処理を進める。
S262において、選ばれている曲データを読み出す。曲データは、発音させるべき時間よりも前に先読みを行う。
S264において、先に図14のS222において、リアルタイムで表情付けを行う設定がされていたか否かを判定し、そうであれば、表情付けを行うフローに入ってS265に処理を進め、そうでなければ、S263に処理を進め、先読みされた曲データがそのまま、その後の発音させるべき時間において音源に供給され、楽音が生成される。
【0070】
S265において、「表情付け処理」を実行するため、先読みされた演奏データを処置対象範囲の演奏データとして一時的に指定し、S266に処理を進める。
S266において、処理対象範囲の演奏データを選択された設定パラメータの設定値に従って変更し、S267において、生成された演奏データを、その後の発音させるべき時間において音源に供給して楽音を生成させ、S263に処理を進める。
なお、この変更処理は、図14のS217,S218に対応した処理である。したがって、入力された演奏データと同じ形式の演奏データを一旦作成してもよいし、同じ形式の演奏データをもはや作成することなく、音源部において楽音信号を生成するための、あるいは、DSPで効果付与を行うためのパラメータを用いた演奏データとして、音源部やDSPを直接的に制御してもよい。
【0071】
先に説明したS261において自動演奏の再生中でなければ、S263に処理を進める。S263において、外部の演奏機器から送信された演奏データを再生するように設定されているか否かを判定し、そうであればS268に処理を進め、そうでなければS269に処理を進める。
S268において、送信されてきた演奏データをバッファに一時記憶する。ストリーミング再生のために、演奏データは発音すべき時間よりも以前に送信されている。
S270においては、図14のS222において、リアルタイムで表情付けを行う設定がされていたか否かを判定し、リアルタイムの表情付け処理が設定されていたときにはS271に処理を進め、そうでなければ、一時記憶されている演奏データをそのまま音源で処理する。
【0072】
S271においては、バッファに一時記憶されている演奏データを、処理対象範囲の演奏データとして一時的に指定し、S272に処理を進める。
S272において、演奏データを選択された設定パラメータの設定値に従って変更し、S273において、生成された演奏データを、その後の発音させるべき時間において音源に供給して楽音を生成させる。なお、この変更処理は、図14のS217,S218、上述したS266,S267に対応した処理である。
S269において、画面上に表示された仮想的な鍵盤などの演奏操作子の入力イベントがあったか否かを判定し、入力イベントがあったときにはS274に処理を進め、入力イベントがなければメインルーチンに戻る。
S274において、入力イベントがキーオンイベントであるか否かを判定する。キーオンイベントであればS275に処理を進め、そのキーオンに対応する楽音信号を生成してメインフローに戻る。
【0073】
S274においてキーオンイベントでないと判定されたときには、S276に処理を進め、操作イベントがキーオフイベントであるか否かを判定する。キーオフイベントであれば、S277に処理を進め、キーオフイベントに対応する発音中の楽音信号の発音を停止するように処理を行い、メインフローに処理を戻す。
S276においてキーオフイベントでないと判定されたときには、S278に処理を進め、その他の演奏操作子の指示に応じた楽音の処理を行い、メインのフローに戻る。
【0074】
ここで、リアルタイム処理における表情付け処理について説明を補足する。
図15に示す、ROMや外部記憶装置から自動演奏データを読み込んで再生する場合や、外部の演奏機器からの演奏データを再生する場合のリアルタイム処理においては、図14のS224においてユーザが演奏データ加工範囲(表情付けの処理対象の範囲)の選択操作をし、S235において演奏データ加工範囲が設定されたとしても、設定されたこの演奏データ加工範囲は図15に示したリアルタイム処理においては反映されない。すなわち、全ての演奏データに表情付け処理が実行される。この場合、リアルタイム処理においては、ユーザが演奏データの加工範囲の選択操作ができないようなフローに変更することもできる。
上述したフローチャートでは、リアルタイム処理中であっても、図14のS220,S222の実行が可能であるため、リアルタイム処理中においても、表情付けの設定処理をリアルタイムで行えることになる。しかし、表情付けの設定処理はリアルタイム処理前にしか行えないことを前提としたフローに変更してもよい。
【0075】
一方、上述したリアルタイム処理においても、演奏データ加工範囲の設定ができるようにしてもよい。
図15のS265の後に、一時的に指定された処理対象範囲が、表情付けの処理対象の設定範囲であるか否かを判定する。そうであれば、S266に処理を進め、そうでなければS263に処理を進める。また、S271の後に、一時的に指定された処理対象範囲が、表情付けの処理対象の設定範囲であるか否かを判定する。そうであれば、S272に処理を進め、そうでなければS269に処理を進める。
その際、演奏データ加工範囲の設定に関しては、次のようにすればよい。図14のS216,S220のように、演奏データ加工範囲の設定がないときにリアルタイム処理の設定を受け付ける手順である場合、先にリアルタイム処理の設定が受け付けられた後に、S224,S235において、演奏データの加工範囲の設定動作を行えばよい。
ユーザによる演奏データ加工範囲の選択は、図2に関連して説明した「トラックビューウインドウ」のような選択用画面において、先読みされた曲データあるいはバッファに一時記憶された演奏データを表示させることにより設定できる。
上述したような、演奏データ加工範囲の設定がないときにリアルタイム処理の設定を受け付ける手順である場合には、演奏データ加工範囲の設定が行われると、リアルタイム処理中においては、表情付けの設定処理をリアルタイムで行うことができない。従って、リアルタイム処理前に、予め表情付けの設定処理を実行しておくことを前提とする。しかし、表情付けの設定処理をリアルタイム処理中においてもリアルタイムに実行できるようなフローに変更してもよい。
【0076】
上述した説明では、図1に示した演奏データ加工処理部6は、設定された加工範囲内の演奏データを分析して、選択されたそれぞれの加工項目の加工処理を施すのが適切であると判断された音符あるいは音符列を自動的に選択して、それぞれの加工処理を自動的に実行するものであった。しかし、選択されたそれぞれの加工項目の加工処理を施す対象とする音符あるいは音符列を、ユーザがマウス等で直接的に指定して選択するというような手動設定を行った上で、それぞれの加工処理を自動的に実行するようにしてもよい。
【0077】
上述した説明では、本発明を、電子楽器、パーソナルコンピュータ上で実現する場合について説明した。この他、CPUを内蔵し、プログラムの実行によって機能を実現するゲーム機、携帯電話機、固定電話機、PDA(Personal Digital Assistant)等においても実現できる。
演奏データ加工処理プログラムは、CD-ROM等の記録媒体に記録され、コンピュータのハードディスク装置にインストールされて使用される。あるいは、コンピュータや上述したCPU内蔵機器のROMに予め書き込まれて使用される。あるいは、ネットワーク上のサーバコンピュータ等からコンピュータのハードディスク装置やCPU内蔵機器のフラッシュROMにダウンロードされて使用される。
【0078】
【発明の効果】
本発明は、上述した説明から明らかなように、演奏データを基準にして演奏データ加工を行うためのパラメータの設定を、簡単でわかりやすい方法で行うことができるという効果がある。
その結果、入力された演奏データの音楽表現力を高めて、演奏を表情豊かにするために、具体的にどのパラメータの設定値を変更するかなど、面倒な設定作業をする必要がない。音楽知識や経験の少ないユーザでも、ユーザは、曲の演奏時のことを考えて、希望する表情付けの加工条件を入力するだけでよい。
この加工条件に応じて、適切な加工項目の呈示、パラメータとその初期設定値の呈示と、順を追って設定でき、途中での設定値の確認および設定値の修正も容易である。
自然な演奏、美しい演奏、生々しい演奏などのために、様々な音楽的な表現や楽器らしさを演奏データに加えることができる。
また、1つの演奏データないし範囲指定された演奏データに対して、複数の加工項目についての表情付け処理を、累積的にかつ適切に行うことができる。
【図面の簡単な説明】
【図1】 本発明の実施の一形態の説明図である。
【図2】 本発明の実施の一形態における、パラメータの設定入力および表示を行う「アーティキュレーション」設定ダイアログ画面の説明図である。
【図3】 「グルーブ」設定ダイアログ画面の説明図である。
【図4】 「ビブラート」設定ダイアログ画面の説明図である。
【図5】 「ハーモニーバランス」設定ダイアログ画面の説明図である。
【図6】 「クレッシェンド/ディミヌエンド」設定ダイアログ画面の説明図である。
【図7】 「チョーキングジャンプ」設定ダイアログ画面の説明図である。
【図8】 「スライド」設定ダイアログ画面の説明図である。
【図9】 「コードストローク」設定ダイアログ画面の説明図である。
【図10】 「ストロークミュート」設定ダイアログ画面の説明図である。
【図11】 「ストロークシンアウト」設定ダイアログ画面の説明図である。
【図12】 本発明の実施の一形態を、電子楽器で実現する一例を示すハードウエア構成図である。
【図13】 本発明の実施の一形態を、パーソナルコンピュータで実現する場合のメインルーチンのフローチャートである。
【図14】 図13における「表示画面入力処理」の詳細を示すフローチャートである。
【図15】 図14における「表情付けの設定処理」の詳細を示すフローチャートである。
【図16】 図13における「楽音信号の生成処理」の詳細を示すフローチャートである。
【符号の説明】
1…初期加工条件出力部、2…加工条件保持部、3…パラメータ自動選択部、4…パラメータ初期設定値出力部、5…パラメータ保持部、6…演奏データ加工処理部、7…表示画像作成部、11…ダイアログ画面、12a〜12c…加工条件を入力するドロップダウンコンボボックス、22,24,26,28…パラメータを入力するコンボボックス、23,25,27,29…パラメータを入力するつまみ
[0001]
BACKGROUND OF THE INVENTION
The present invention is a performance data processing technique for processing performance data by slightly changing parameters of individual note information with reference to the original performance data in order to enhance the music expression power of the performance data. It is about.
[0002]
[Prior art]
Automatic performance data using MIDI (Musical Instrument Digital Interface) data or the like is generally composed of data of a plurality of tracks corresponding to a plurality of types of performance parts. Here, when the pronunciation data in each track is composed only of note information, especially when the musical tone characteristics such as velocity (sound intensity, volume) included in the note information are uniform, it is mechanical. It is a quiet performance and no expression. For this reason, I want to create a song with emotion. However, in order to add expressive expressions to music, it is necessary to perform processing for finely changing parameters such as the sound generation timing, pitch, and strength of the note information from the original values.
However, the user needs to set parameters for the musical tone data of each track of the performance data so as to have appropriate musical tone characteristics. Therefore, the setting operation is difficult for beginners who are not familiar with the characteristics of music and computer music, and requires complicated processing for those who have some knowledge.
[0003]
In addition, the conventional processing for expression of performance data is performed independently for each processing item.
When two facial expression processes are performed on one piece of performance data, the original performance data is first analyzed by the facial expression process that is executed first, and the first expression performance data that is processed as a result of processing is analyzed. Is generated, and the performance data with the first expression is further analyzed by the next expression processing to generate performance data with a double expression.
However, this double expression may not work. This is because each facial expression processing is designed assuming performance data without a facial expression.
In this case, since the expression processing performed secondly analyzes the performance data that is expressed by the first expression processing, there is a possibility that appropriate expression cannot be performed depending on the content of the first expression. .
[0004]
[Problems to be solved by the invention]
The present invention has been made in view of the above-mentioned problems, and in order to enhance the music expression power of the original performance data, setting of parameters for processing the performance data on the basis of the original performance data However, an object of the present invention is to provide a performance data processing apparatus and a performance data processing program that are simple and easy to understand.
It is another object of the present invention to provide a performance data processing apparatus capable of cumulatively and appropriately performing facial expression processing for a plurality of processing items on performance data.
[0005]
[Means for Solving the Problems]
  In the invention according to claim 1, the present invention provides a performance data processing apparatus,Depending on user instructions,DuplicateNumberMachining conditionsFor each of several processing categories with optionsProcessing condition selection means for selecting processing conditions, and the processing conditionsButChoiceDepending on what was doneMachining condition holding means for sequentially updating the held machining conditions;In response to the selection of the processing conditions, the processing condition holding meansRetainedTacaFor construction conditionsOne or more processing items are identified based on the corresponding processing itemParameter automatic selection means for automatically selecting parameters;According to user instructions,Automatically selectedTapaA set value input means for inputting a set value for the parameter, and the set value is input.Depending onSetting value holding means for sequentially updating the held setting value;According to user instructionsInstructed to start processingDepending onBased on the original performance data,For each of one to a plurality of processing items specified based on the processing conditions held by the processing condition holding means,Performance data processing means for changing the original performance data in accordance with the set value held in the set value holding meansWhenIt is what has.
  Therefore, a specific parameter type for processing the performance data based on the original performance data can be selected simply by selecting the processing conditions. As a result, it is possible to easily and easily perform processing for enhancing the musical expression power of performance data.
  Processing conditions can be prepared for each category such as instrument type, genre, and rhythm type. Parameters that are automatically selected to change performance data include note strength (volume, velocity), pitch (note number), time (note-on timing, gate time, etc.), or the amount of variation thereof. You can also organize by performance category (vibrato, swing, harmony balance, crescendo, stroke, etc.).
[0006]
  According to a second aspect of the present invention, there is provided the performance data processing apparatus according to the first aspect of the present invention.PerformanceFor playing data processing meansWhen a process that changes performance data is executedThe processing conditions used forHold the heldProcessing conditionsIn the machining condition holding means as an initial value of the machining conditions selected by the machining condition selection meansIt has an initial processing condition output means for outputting.
  Therefore, since the initial machining conditions selected at the start reflect the past usage state of the user, it is highly possible that the initial machining conditions can be used as they are, and the selection of the machining conditions is also simplified. The machining conditions are not fixed to the initial machining conditions, but the user can arbitrarily modify the machining conditions by the machining condition selection means.
  As the initial machining conditions according to the user's past usage status, for example, the last used machining conditions and the most frequently used machining conditions can be used.
[0007]
  According to a third aspect of the present invention, in the performance data processing apparatus according to the first aspect, by analyzing the original performance data to be processed by the performance data processing means.The processing conditions are automatically selected and the automatically selectedProcessing conditionsIn the machining condition holding means as an initial value of the machining conditions selected by the machining condition selection meansIt has an initial processing condition output means for outputting.
  Therefore, since the initial machining conditions selected at startup are suitable for the original performance data to be machined, there is a high possibility that the initial machining conditions can be used as they are, making it easy to select machining conditions. Become. The machining conditions are not fixed to the initial machining conditions, but the user can arbitrarily modify the machining conditions by the machining condition selection means.
  Analysis of the original performance data to be processed includes, for example, searching for the tone setting data set in the performance data, searching for the song name data of the performance data, and determining the rhythm pattern of the performance data. Analyze and select appropriate processing conditions.
[0008]
  In the invention according to claim 4, in the performance data processing apparatus according to any one of claims 1 to 3,ExcessiveIn the lastEach of the performance data processing means retains parameter setting values corresponding to the processing conditions used when processing for changing performance data is executed, and the stored parameter setting values are stored in the processing data. Of the parameter corresponding to the conditionInitial settingAsAn initial set value output means for outputting,When the parameter is automatically selected by the parameter automatic selection unit, the set value holding unit is configured to set the initial set value to the value of the automatically selected parameter according to the machining condition held in the machining condition holding unit. Set the initial setting value output by the output meansTo do.
  Therefore, since the setting value for the parameter automatically selected according to the predetermined processing condition reflects the past usage state of the user, it is highly possible that the setting value can be used as it is. It will also be easy. The setting value is not fixed to the initial setting value, but the user can arbitrarily correct the setting value by the setting value input means.
  As an initial set value according to a user's past use situation, for example, a set value used last time or a set value having the highest use frequency can be used.
[0009]
  In the invention according to claim 5, in the performance data processing apparatus according to any one of claims 1 to 3,in frontBy analyzing the original performance data to be processed by the musical performance data processing means,Of the parameter corresponding to the processing conditionSet the default value toGenerateInitial setting value output means for outputting, the set value holding means,Automatic parameter selection meansTo automatically select the parametersTheWhenDepending on the machining conditions held in the machining condition holding means, the automatically selected parameter value is set toThe initial set value output by the initial set value output meansSettingTo do.
  Therefore, the set value for the parameter automatically selected according to the predetermined processing condition is suitable for the original performance data to be processed under the predetermined processing condition. Since the possibility of being able to do is high, selection of a set value becomes easy. The setting value is not fixed to the initial setting value, but the user can arbitrarily correct the setting value by the setting value input means.
  In the analysis of the original performance data to be processed, for example, the statistical strength distribution and pitch distribution of the performance data is analyzed, and an appropriate set value is selected.
[0010]
  In the invention according to claim 6,The method according to any one of claims 1 to 5.Performance data processingapparatusInPerformance data storage means for storing original performance data and temporary storage means for temporarily storing the performance data being processed, the performance data processing means being instructed to start the processing process by a user instruction In response, the original performance data is copied from the performance data storage means to the temporary storage means, and the one or more processing items specified based on the processing conditions held by the processing condition holding means Every time, according to the set value held in the set value holding means, the original performance data stored in the performance data storage means is analyzed to perform facial expression processing, and the processing result of the facial expression processing Is cumulatively reflected in the performance data stored in the temporary storage means.It is something to be made.
Accordingly, it is possible to cumulatively and appropriately perform expression processing for a plurality of processing items on performance data.
[0011]
  In the invention of claim 7, performance data processingprogramInIn response to a user instruction, for each of a plurality of machining categories each having a plurality of machining condition options, a machining condition selection step for selecting a machining condition, and holding the machining condition in response to the selection A machining condition holding step for sequentially updating the machining conditions; and in response to the selection of the machining conditions, one or more machining items are identified based on the machining conditions held by the machining condition holding means; A parameter automatic selection step for automatically selecting a parameter corresponding to the specified processing item, a setting value input step for inputting a setting value for the automatically selected parameter in response to a user instruction, and the setting value is input Accordingly, a set value holding step for sequentially updating the held set value, and a processing process is instructed by a user instruction Accordingly, with respect to the original performance data, each of the one or more processing items specified based on the processing conditions held by the processing condition holding means is held in the set value holding step. A performance data processing step for changing the original performance data according to the set value.It is what has.
Therefore, the invention according to claim 1 can be realized by causing a computer to execute this program.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is an explanatory diagram of an embodiment of the present invention.
FIG. 1A is a block configuration diagram, FIG. 1B is a list of processing conditions, FIG. 1C is a list of processing items, and FIG. 1D is a list of parameters and their set values using a tab dialog. .
In FIG. 1A, 1 is an initial processing condition output unit, 2 is a processing condition holding unit, 3 is an automatic parameter selection unit, 4 is a parameter initial setting value output unit, 5 is a parameter holding unit, and 6 is a performance data processing process. Reference numeral 7 denotes a display image creation unit.
[0013]
When the user starts the performance data processing, the initial processing condition output unit 1 outputs the initial processing conditions to the processing condition holding unit 2. The machining condition holding unit 2 sequentially updates the held machining conditions each time a machining condition is selected from a plurality of types of machining conditions by the user.
As shown in FIG. 1B, as the processing conditions, for example, one is selected from each of a category of a musical instrument, a genre, and a type.
The parameter automatic selection unit 3 automatically selects a parameter from a plurality of types of parameters with reference to a lookup table (not shown) according to the processing condition held in the processing condition holding unit 2. When the machining conditions marked with a circle in FIG. 1B are input, the machining items marked with a circle in FIG. 1C are selected.
[0014]
Since one set of specific parameter types is prepared for each processing item marked with a circle in FIG. 1C, as shown in FIG. 1D, these parameters are automatically selected. It will be.
The parameter initial set value output unit 4 inputs the automatically selected parameter and outputs an initial set value.
The parameter holding unit 5 holds automatically selected parameters and initial setting values. The parameter holding unit 5 sequentially updates the held setting value every time the user inputs a setting value for the automatically selected parameter.
The performance data processing unit 6 inputs, for example, performance data and a performance data processing range (tracks, blocks, etc., in some cases, notes and note strings) and stores them in the storage means.
[0015]
When the user instructs the performance data processing unit 6 to start processing the performance data, the performance data processing unit 6 uses the performance data within the processing range as the original performance data, and the original performance data. Based on the above, the performance data is processed and stored in the storage means by changing the original performance data according to the set value for the automatically selected parameter held in the parameter holding unit 5. Alternatively, the processed performance data is output.
At that time, the performance data within the processing range is automatically analyzed, and the processing is performed only on the notes and the note strings that are determined to be appropriate to process the automatically selected parameter values. Since the automatically selected parameters are set for each processing item, it is usually determined whether the processing is appropriate for each processing item.
[0016]
The display image creation unit 7 displays a display image for displaying the processing conditions held in the processing condition holding unit 2, the automatically selected parameter type held in the parameter holding unit 5, and the set value thereof on the display. create. While viewing this display image, the user performs processing condition selection, parameter setting value input, processing start instruction, and the like.
In particular, the display image creating unit 4 creates a tab dialog 8 for each selected processing item as shown in FIG. 1D and displays it on the display. Each tab dialog 8 displays parameters belonging to the processing item and has an input unit 8a (virtual input unit on the display screen) that also displays the set value.
[0017]
The button 8b (virtual button on the display screen) determines the validity / invalidity of the setting of the processing item. When set to invalid, the setting value held in the parameter holding unit 5 and displayed on the input unit 8a is not output to the performance data processing unit 6 even if there is an instruction to start the processing. When processing items and parameters are selected, depending on the user's wishes, there may be cases where some processing items and parameters are not desired to be processed. In such a case, whether to apply an effect (whether to enable or disable processing) can be set with one touch.
[0018]
In many cases, a plurality of processing items are selected, but in the tab dialog display, only one of them is displayed up to the parameter as shown in FIG. For other processing items, only tabs are displayed, and if any tab is selected, the corresponding tab dialog opens and parameters are displayed.
Also, the automatically selected parameter setting values can be displayed graphically on the sample image.
[0019]
FIG. 1B shows, as an example, processing conditions that are closely related to the performance method and effects and indirectly related to the processing items.
Here, “musical instruments” characterizing musical performance signals generated by the performance method and the sound source section, “genre” indicating the music style of the music, and “type” indicating the type of rhythm are illustrated.
In addition to this, it is also conceivable to use the “feeling” or “concept” for which the performance is assumed as a processing condition. Alternatively, a specific “composer” or a specific “performer” may be used as a processing condition to select a processing item that leads to the characteristics of the musical expressive power of the composer or performer.
[0020]
Since there are a plurality of methods for creating the initial machining conditions output by the parameter initial machining condition output unit 4 described above, a description thereof will be added.
The first method is a method of storing a standard one as each processing condition and using this processing condition.
According to the second method, in the past, the initial processing condition is set according to the use condition of the processing condition used when the set value of the parameter held in the parameter holding unit 5 is output to the performance data processing unit 6. Is a way to create.
For example, the machining conditions used last time or the machining conditions with the highest use frequency are set as the initial machining conditions. For this purpose, the initial machining condition output unit stores the past usage status. This storage may be performed in a storage device that is not erased even when the power is turned off. If the power backed up RAM or the flash memory can be accessed, it may be written into them.
[0021]
In the third method, the performance data within the processing range input to the performance data processing unit 6 is analyzed to generate initial processing conditions suitable for the performance data.
For this purpose, it is necessary to analyze performance data in the processing range. For example, you can search for tone setting data set in this performance data, search for song name data of this performance data, select one processing condition in the “instrument” category, The rhythm pattern is analyzed, and one processing condition in the “type” category is selected.
[0022]
The initial setting value of the automatically selected parameter in the parameter initial setting value output unit 4 can be created in the same manner. However, it is desirable to generate according to the processing conditions at that time.
That is, as a first method, when parameters are automatically selected according to a predetermined processing condition, a standard method is stored under the predetermined processing condition, and this processing condition is used.
As a second method, when a parameter is automatically selected according to a predetermined processing condition, the predetermined processing condition and the automatically selected parameter are input, and a setting value of the automatically selected parameter in the past is used as performance data. When output to the processing means, an initial set value is generated according to the use state of the set value under this predetermined processing condition. For example, the setting value used last time and the setting value with the highest use frequency are used. Even if the processing item is automatically selected, “no effect” is the initial setting value when the processing is not performed.
[0023]
As a third method, when a parameter is automatically selected according to a predetermined processing condition, the predetermined processing condition and the automatically selected parameter are input, and the performance data processing unit 6 is input under the predetermined processing condition. The initial setting value is generated by analyzing the performance data within the processing range input to.
The performance data in the processing target is analyzed by, for example, analyzing the statistical distribution of the tempo, note strength, and pitch of the performance data, and generating an appropriate recommended value as an initial setting value.
In the above description, the setting method is easy to understand because it has a hierarchical structure of selection of processing conditions, selection of processing items, selection of parameter types, and input of parameter setting values. However, it is also possible to select processing conditions, immediately select individual parameter types, and input set values.
[0024]
FIG. 2 is an explanatory diagram of an “articulation (music expression)” setting dialog screen for performing parameter setting input and display in the embodiment of the present invention.
This setting dialog screen is used by sequencer software executed on a personal computer.
Displayed by selecting one block of one track and selecting “Articulation” from the “View” menu in the “Track view window (displaying block sections of multiple tracks in chronological order)”. The
Or “Staff window (score display of specified block)”, “Piano roll window (bar display from note-on to note-off for each pitch of specified block)”, “List window (MIDI event display) "List display" ", using a pointing device such as a mouse, select one or more note events, in other words, a note sequence consisting of notes or consecutive notes, and select" Articulation "from the" Plug-in "menu. Is displayed by selecting.
[0025]
In the figure, 11 is a dialog screen for performing setting input and display using a GUI (Graphical User Interface). Reference numerals 12a to 12c are drop-down combo boxes for inputting processing conditions. 12a is a musical instrument, 12b is a genre, and 12c is a type.
When the machining condition is changed in any one of the categories, the machining item is automatically selected, and the tab dialog set displayed on the screen is switched. Alternatively, a machining condition input completion button may be provided, and when this button is clicked, a set of machining items is automatically selected, and the tab dialog set is switched.
[0026]
Reference numeral 13 denotes a button for instructing start of processing, and reference numeral 14 denotes a drop-down combo box for a reference time value (reference note) of a time signature.
Reference numeral 15 denotes a button for determining whether or not to enable articulation editing that changes the tempo. If the object to be edited is a solo instrument part, the tempo can be freely changed for expression. However, in the case of one instrument part in an ensemble, if the tempo is changed due to the convenience of this instrument, the tempo of the entire ensemble may become strange, so such a button is provided.
Reference numeral 16 denotes a button for calling a preference window. In the preferences window, settings such as ignoring the original velocity, outputting tone color setting information, and sequentially assigning channel assignments to empty channels are made.
Reference numeral 17 denotes an open tab dialog with a “choking” setting. 18 is a closed tab dialog of “Vibrato”, 19 is “Crescend / Diminuendo”, and 20 is “Stroke”.
[0027]
In the “choking” setting tab dialog 17, reference numeral 21 denotes a sample display portion, which is a portion for schematically displaying parameter setting values in a graph.
21a is a fixed image of a piano roll that displays choking in the case of a single sound that is not followed by notes, and 21b is a graph that displays a change in pitch of the choking of a single sound as a model, which is displayed according to the set value. Changes. 21c is a fixed image of a piano roll in which the choking of a single note in a continuous sound followed by notes is displayed as a picture, and 21d is a graph showing a pitch change of the continuous sound choking, the display of which is set It changes according to the value.
The parameter names in the arrows and parentheses shown in the figure are annotations in the drawing, but may be displayed on the sample display unit 21.
In the performance data processing unit 6 shown in FIG. 1A, performance data within the set processing range is analyzed, and it is automatically determined whether a note is a single note or a note in a continuous tone. Determined. Note that it is automatically determined which note in the continuous tone is choked.
[0028]
Reference numerals 22, 24, 26, and 28 are combo boxes for setting parameters, and reference numerals 23, 25, 27, and 29 are knobs for setting parameters. Of these, 22 is a choking “delay” of a single sound, which is a combo box for setting and displaying a delay time from note-on of a note to the start of sounding by choking. Place the pointing device on this part and change the value by setting the value from the keyboard or by clicking the spinner provided on the left side. The numerical value can also be changed by moving the knob (slider) 23 with a pointing device.
Note that the numerical values in the combo box actually correspond to the graph displayed on the sample display unit 21, but the following figures including this figure do not show the corresponding numerical values.
Reference numeral 24 denotes a choking “time” of a single sound, which is a combo box for setting and displaying the time from the choking start to the pitch change end. The numerical value can also be changed by moving a knob (slider) 25 with a pointing device.
[0029]
The combo boxes 26 and 28 and the knobs 27 and 29 are respectively a combo box or a knob for choking “delay” and choking “time” for notes in the middle of a continuous sound.
In the combo box 22 and the like, the initial setting value is displayed in advance as a default, and the position of the knob 23 and the like is also in a position corresponding to the initial setting value.
Buttons 30 and 31 are processing processing valid / invalid buttons. Among these buttons, the button 30 is a button for determining whether or not to perform choking processing on a single sound, and the button 31 is a button for determining whether or not to perform choking processing on a continuous sound. It is. For example, when the button 30 is pressed, the setting values set by the combo boxes 22 and 24 or the knobs 23 and 25 are invalid, and the choking processing for the single sound is not performed.
[0030]
In the above description, the “choking” processing has been described. Other processing processes are also displayed and set as one of the “tab dialogs” depending on the processing process conditions as shown in FIGS.
In addition to the “tab dialog”, any processing can be set by opening the “setting dialog” for individual processing items in the selected processing items shown in FIG. 1C. It is.
In addition to this, it is possible to manually select the machining item and its parameter arbitrarily without automatically selecting the machining item and its parameter, and to open and set the “setting dialog” for the arbitrarily selected machining item. .
Below, with reference to FIGS. 3-11, the specific example of another process is demonstrated using the display screen of an individual "setting dialog". As shown in FIG. 2, when displayed as one of the “tab dialogs”, the same display is performed as if the title bar of the “setting dialog” is replaced with a tab.
[0031]
FIG. 3 is an explanatory diagram of a “groove” setting dialog screen.
In the figure, 41 is a sample display section, 41a is a table beat in one bar, 41b is an image of a note indicating a back beat in one bar, and eight beats of continuous eighth notes are fixedly displayed. 41c is an image of a musical note schematically showing how the back beat 41c deviates from the back beat 41b depending on the set value of the swing. When the set value of the swing changes, the display position of the note 41c also changes.
In this sample, the front beat and the back beat are shown alternately, but in actual performance data, this is not always the case. In the groove, settings are made for front and back beats.
In the performance data processing unit 6 shown in FIG. 1A, performance data within the set processing range is analyzed, and it is automatically determined whether it is a front beat or a back beat.
41d is an image of a bar graph that displays the velocity of each beat in one measure, and is shown as a sample in units of 4 beats.
Reference numeral 42 denotes a button for setting the validity / invalidity of the strength processing for the velocity of each note in one measure, and the setting value of the velocity of each note is performed by the combo box 43 or the knob 44. When the set value changes, the length of the bar graph image 41d also changes.
[0032]
45 is a combo box for setting a time signature value as a reference of time, and 46 is a setting for enabling / disabling processing for processing a duration (gate time) indicating a note generation period as a ratio to a time between note-on timings of notes. It is a button to do. The duration is set with the combo box 47 or the knob 48. The smaller this value, the stronger the staccato tendency.
Reference numeral 49 denotes a button for setting validity / invalidity of the swing processing. The swing is set with the combo box 50 or the knob 51. This is represented by the ratio of the interval between the first beat 41a and the back beat 41b to the interval between the beats 41a.
[0033]
FIG. 4 is an explanatory diagram of a “vibrato” setting dialog screen.
In the figure, 61 is a sample display unit, and 61a is an image in which short notes are continuous and fixedly displayed on a piano roll. 61b is a graph showing the image of the vibrato pitch change depth (frequency range of pitch fluctuation) and rate (fluctuation period of pitch fluctuation), and the display changes depending on the set value. 61c is an image of a long note fixedly displayed in a piano roll display.
The performance data processing unit 6 shown in FIG. 1A analyzes performance data within the set processing range and automatically determines whether a certain note is short or long.
[0034]
In addition to the basic vibrato added to the short sound already shown, the second vibrato is added to the long sound.
61d is a graph showing the depth and rate image of the pitch change of the second vibrato added to this long note, and its display changes depending on the set value.
Vibrato “depth” and vibrato “rate” are set by combo boxes 68 and 70 or knobs 69 and 71, respectively.
The vibrato “random” sets a deviation of random fluctuation when a random fluctuation is added to a fluctuation of a certain period of the pitch of the basic vibrato. The setting is performed with the combo box 66 or the knob 67.
The button 72 sets whether to give an effect to the entire vibrato processing, that is, whether to enable / disable the processing.
[0035]
FIG. 5 is an explanatory diagram of the “Harmony Balance” setting dialog screen.
In the figure, 81 is a sample display section, 81a is an image of a note higher than the melody note, 81b is an image of a melody note, and 81c is an image of a note lower than the melody note. These image displays are fixed.
In the performance data processing unit 6 shown in FIG. 1A, performance data within the set processing range is analyzed, and the melody note and the level of the note are automatically determined.
The respective velocities are displayed as level meter-like bar graphs 81d, 81e, and 81f, and the length of the bar changes depending on the set value.
The above-described high note velocity (high tone emphasis), melody note velocity (melody emphasis), and low note velocity (low tone emphasis) are set by the combo boxes 82, 84, 86 or knobs 83, 85, 87, respectively. .
The button 88 is used to enable / disable the harmony balance processing.
[0036]
FIG. 6 is an explanatory diagram of a “crescendo / diminuend” setting dialog screen.
In this case, crescendo / diminuendo is to change the velocity of a note (sound strength, volume) slowly with the progress of a song in a relatively long cycle over several measures in order to change the idea of the song. .
"Crescend / Diminuendo 1, 2" is a system that changes the velocity of a note sequence consisting of multiple notes as the song progresses. By combining different changes in cycle, a more natural undulation is expressed. it can.
On the other hand, when the velocity is gradually increased or decreased with the progress of the song, “overall crescendo / diminuendo” is used.
[0037]
In the figure, 91 is a combo box of time signature values, and 92 is a sample display section.
Assuming that notes are arranged and displayed in the right direction of the horizontal axis along the progression of the music, the first triangular waveform 92a, the second triangular waveform 92b, and the straight line 92c in the vertical axis direction at the time of occurrence of each note. The levels respectively represent the first crescendo / diminu end, second crescendo / diminu end, and overall crescendo / diminu end weighting factors for each note.
For example, the sum of the first and second crescendo / diminuend weight coefficients multiplied by the overall crescendo / diminuend weight coefficient is used as the weight coefficient for multiplying the velocity of each note.
When the set values of the first and second crescendo / diminuends and the overall crescendo / diminuend change, the respective weighting factors change, so the display of the graph also changes.
[0038]
The first crescendo / diminuend “depth (weight coefficient fluctuation range)” is set by the combo box 94 or the knob 95.
The first crescendo / diminuend “rate (fluctuation period of weighting factor)” is set by the combo box 96 or the knob 97. The first crescendo / diminu end “timing shift (time difference of fluctuation from a certain reference)” is set by a combo box 98 or a knob 99. Similarly, the second crescendo / diminuend parameter can be set by the combo boxes 101, 103, 105 or the knobs 102, 104, 106.
Setting of “start point volume (weighting coefficient at start point)” and “end point volume (weighting coefficient at end point)” of the overall crescendo / diminuend is performed by combo boxes 108 and 110 or knobs 109 and 111, respectively.
Validity / invalidity of the first and second crescendo / diminuend is performed by buttons 93 and 100, respectively. The button 107 is used to enable / disable the entire crescendo / diminuend.
[0039]
FIG. 7 is an explanatory diagram of a “choking jump” setting dialog screen.
Reference numeral 121 denotes a sample display unit. 121a is a choke for a short note fixedly displayed as a piano roll image. Reference numeral 121b is a graph that displays a change in the choking pitch for a short note as a model, and the display changes according to the set value.
The short note choking “delay (delay time to start sounding)” is set by the combo box 122 or the knob 123.
The short note choking “time (from choking start to pitch change end)” is set by the combo box 124 or the knob 125.
A choking “start pitch”, which is a pitch difference from the start of choking to the end of pitch change, can also be set, and is performed with the combo box 126 or the knob 127.
The button 128 is used to enable / disable the choking jump processing.
The performance data processing unit 6 shown in FIG. 1A analyzes performance data within the set processing range and automatically determines whether a certain note is short or long.
There is also a choking long setting dialog similar to the choking jump setting dialog screen. When the note length is longer than the predetermined value, choking “delay”, choking “time”, and choking “start pitch” are set separately from choking jump.
[0040]
FIG. 8 is an explanatory diagram of a “slide” setting dialog screen.
In the figure, 131 is a sample display unit, and 131a is a fixed image of a piano roll showing a single sound. Reference numeral 131b is a graph that displays a slide change in pitch for a single sound as a model, and the display changes in accordance with a set value. 131c is a fixed image of a piano roll showing continuous sounds. 131d is a graph in which the slide change of the pitch for one note in the continuous sound is displayed as a model, and the display changes according to the set value. In this figure as well, the parameter names in the arrows and parentheses are annotations of the drawings, but they may be displayed on the sample display unit 131.
For a single sound, the pitch changes in a staircase pattern with a constant staircase height (100 cents). Accordingly, the number of stairs varies depending on the “start point pitch”, and the width of the stairs varies depending on the set (delay + time).
For one note in a continuous sound, the pitch changes in a staircase pattern with a constant height and number of steps. Therefore, the width of the stairs varies depending on the set (delay + time).
[0041]
In the performance data processing unit 6 shown in FIG. 1 (a), performance data within the set processing range is analyzed, and it is automatically determined whether a certain note is a single sound or a continuous sound. Is determined.
The button 132 sets validity / invalidity of the slide processing for a single sound.
The combo boxes 133, 135, 137 or the knobs 134, 136, 138 for the single sound respectively set the slide “delay”, “time”, and “start point pitch” of the single sound.
On the other hand, the button 139 sets validity / invalidity of the slide processing for one note in the continuous sound. The combo boxes 140 and 142 or the knobs 141 and 143 for the continuous sound set parameters of the slide “delay” and “time” of the continuous sound, respectively.
[0042]
FIG. 9 is an explanatory diagram of a “code stroke” setting dialog screen. “Cord stroke” (abbreviated as “stroke” in FIG. 1) is performance data described as a chord of simultaneous pronunciation, that is, a pitch relationship of chords, and a plurality of simultaneous pronunciation or almost simultaneous pronunciation. The expression of the chord stroke performance of the guitar is given to the notes (usually six notes corresponding to the six strings, hereinafter referred to as the stroke performance part) by giving the notes different timings and the uneven velocity of the notes. It is a process to add.
The performance data processing unit 6 shown in FIG. 1A analyzes performance data within a set predetermined range, automatically discriminates the above-mentioned “stroke performance portion”, and processes this “stroke performance portion”. To do. As a general rule, the performance data processing unit 6 shown in FIG. 1A performs the chord stroke processing only on the “stroke performance part” that is determined to be appropriate for processing. The “stroke performance part” may be processed.
[0043]
In the figure, reference numeral 151 denotes a check button for setting the stroke processing processing to be valid / invalid, 152 is a common time signature display section, and 153 is a combo box for setting a reference sound value.
There are two types of stroke playing methods: a “down stroke” that squeals from the low string side toward the high string side and an “up stroke” in the reverse order. Generally, when the time interval between adjacent “stroke performance parts” is long, it is natural to perform only the “down stroke”. Conversely, when the time interval between adjacent “stroke performance parts” is short, it is natural to repeat the down and up alternately. The reference tone value sets the time interval at this boundary.
[0044]
The combo box 153 shown in the figure displays 16th consecutive notes, but this is because the adjacent “stroke performance part” is down until the combination of the length of two 16th notes. A combination of up, but a longer combination means that a stroke based only on down is used. In the case of this setting, when the eighth note continues, not “down stroke” + “up stroke” but all “down stroke”.
[0045]
“Stroke speed”, “Stroke strength”, and “Down / up difference” are set with knobs 154, 156, 158 or combo boxes 155, 157, 159, respectively. For example, in the case of “down stroke”, the “stroke speed” is a time difference in sound generation from the lowest to the highest string. The “down / up difference” is set so that there is a difference in stroke strength between “down stroke” and “up stroke”.
The “long sound determination” is a threshold value for determining the length of the input “stroke performance part”, and is performed using the knob 160 or the combo box 161. The “long sound stroke speed” for the long sound is set by the knob 162 or the combo box 163.
[0046]
FIG. 10 is an explanatory diagram of a “stroke mute” setting dialog screen.
Stroke Mute is a part of a plurality of continuous “stroke performance portions” of performance data within a set processing range in the performance data processing section 6 shown in FIG. The “stroke performance part” is a process in which a part is not sounded in a predetermined pattern (mute). This setting dialog specifies the mute position.
Reference numeral 171 denotes a button for setting validity / invalidity of stroke mute, reference numeral 172 denotes a display unit for a common time signature value, and reference numeral 173 denotes a combo box for setting a time signature value to be described later.
[0047]
Reference numerals 174a to 174d denote one-bar images of unit patterns of time signatures for stroke performance and stroke mute within one measure, with normal notes and notes marked with crosses. One sixteenth note represents one “stroke performance part”. If you click each note with the mouse, the note head will alternate between black circles and crosses, so you can set the basic mute pattern.
Furthermore, any time signature can be accommodated by moving the left knob 175a and the right knob 175b (sliding the left and right repetition symbols 176a and 176b).
In the example shown in the figure, the unit pattern is selected as 174a, 174b, 174c, 174b, 174c, so it is possible to specify up to the fifth beat of the five quarters.
The unit patterns 174a to 174d shown in the figure are fixedly displayed as sixteenth notes, but the number of notes corresponding to the sixteenth notes is an actual note is determined by the time signature input to the combo box 173. In the example shown in the figure, since it matches the actual note, one beat is counted as a quarter note.
[0048]
FIG. 11 is an explanatory diagram of a “stroke thin out” setting dialog screen.
Stroke Thin Out is a setting related to the process of performing expression of the guitar playing technique. In the “stroke performance part”, not all six strings are pronounced, but strings that are not pronounced are determined according to conditions. There are cases of “down-cutting” and “up-cutting” which is the reverse of this, but the former will be specifically described.
In “down-cutting”, when the volume is low and the stroke speed is high, the specified number of strings is not generated from the low string side to the high string side. For the sound volume at which the “stroke performance part” is sounded, the number of strings to be sounded is determined according to this sound volume. When the volume is low, only the first string (the highest string) is sounded. As the volume increases, the second string, the third string, and so on are gradually increased to the low string side.
Also, the number of strings to be generated is reduced as the stroke speed increases.
The stroke thin-out setting determines how much the number of strings to be generated is reduced with respect to such volume and stroke speed.
Reference numeral 177 denotes a button for setting valid / invalid of stroke thin out. Use the knob 178 or the combo box 179 to set the degree to reduce the number of strings to be generated.
[0049]
This is the end of the description of the specific example of the setting screen for performing facial expression.
The above-described setting screens shown in FIGS. 2 to 11 are display screens when the present invention is realized using a personal computer. However, it can also be realized using an electronic musical instrument controlled by a computer (CPU). In an electronic musical instrument, since the area and resolution of a display device are limited, it is necessary to simplify the display form. However, since a large number of actual operation elements can be provided on the panel, it is only necessary to display the set value on the display screen, and it is not necessary to provide a virtual operation element.
[0050]
FIG. 12 is a hardware configuration diagram illustrating an example in which the embodiment of the present invention is realized by an electronic musical instrument.
In the figure, reference numeral 181 denotes a bus, to which hardware blocks such as a CPU (Central Processing Unit) 182 are connected, and data and addresses are transferred. The CPU 182 performs general control operations such as operation input and display output of the entire electronic musical instrument, and executes performance data processing of the present invention.
[0051]
Reference numeral 183 denotes a ROM (Read Only Memory) which stores various parameter data, song data, and the like in addition to programs for operating the CPU 182 such as a performance data processing program of the present invention. A RAM (Random Access Memory) 184 is a working memory required when the CPU 182 executes the program. It includes an area for storing registers and flags for temporarily holding performance data and various data.
A timer 185 measures the time during execution of the program and performs time management such as timer interruption of the CPU 182 and tempo clock supply for automatic performance.
[0052]
Reference numeral 186 denotes an externally connected performance device such as a MIDI keyboard or a sequencer, which inputs performance data via the interface 187. In addition to being connected via a serial cable, the performance data is downloaded from the server side to the external storage device 191 by being connected to a server on the Internet via a network. In some cases, streaming playback is performed while receiving performance data.
Reference numeral 188 denotes a setting operator provided on the panel. In addition to inputting processing conditions and parameter setting values in the present invention, various settings such as the operation mode of the electronic musical instrument and the tone color and effect of the musical tone signal are performed. Reference numeral 189 denotes a performance instruction operator for inputting notes such as a keyboard and a drum pad. This is not particularly necessary for automatic performance equipment.
[0053]
Reference numeral 190 denotes a display that displays performance data, the current operation mode, processing conditions, parameters, setting values, and the like. Reference numeral 191 denotes an external storage device capable of recording / reproducing or only reproducing music data, and is, for example, an FDD (flexible disk drive), a semiconductor memory card recording / reproduction device, an HDD (hard disk drive), or the like. The performance data processing program of the present invention may be stored.
A sound source 192 generates a musical sound signal based on parameters input via the bus 181. Reference numeral 193 denotes a DSP (Digital Signal Processor), which adds a sound effect such as reverb to a musical sound signal or mixes a plurality of parts of a musical sound signal. The output of the DSP 193 is converted into an analog musical sound signal via a D / A converter (not shown) and output to the sound system 194. In the sound system, a tone signal is emitted from a speaker or the like by adjusting the volume and amplifying the volume.
[0054]
In the above description, the configuration in which the present invention is implemented using an electronic musical instrument controlled by a computer (CPU) has been described. However, when the present invention is implemented using a personal computer, the configuration is as follows.
That is, a performance data processing program that implements the present invention by causing it to be executed by a computer is recorded on a recording medium such as a CD-ROM as an application program that operates under an operating system, and this recording medium is recorded on a hard disk. install. Alternatively, this program is downloaded to a hard disk from a server on the network.
In this case, the sound source unit and the DSP are provided as hardware on the sound card to realize the function, or the sound source function and the effect addition function are realized by the CPU as a software sound source.
[0055]
FIG. 13 to FIG. 16 are flowcharts for explaining processing when the embodiment of the present invention is realized as part of sequence software. Even when the electronic musical instrument as shown in FIG. 12 is realized, it can be realized by the same processing by changing the operation detection of the operator and the control of the display screen.
FIG. 13 is a flowchart of the main routine.
FIG. 14 is a flowchart showing details of the “display screen input process” in FIG.
FIG. 15 is a flowchart showing details of the “facial expression setting process” in FIG.
FIG. 16 is a flowchart showing details of the “musical signal generation process” in FIG.
[0056]
In FIG. 13, execution of the performance processing program is started, and in S201, the contents of the RAM are cleared, thereby initializing registers and flags.
In S202, an operation input event of a virtual setting operator on the display screen is received, editing of music data including performance data processing of the present invention, setting of an operation mode of automatic performance, and a musical sound to be automatically performed. Various settings such as signal tone and effect are made.
In S203, a musical tone signal is generated based on the performance data. In the automatic performance mode, performance data is read from an external storage device or ROM, or transmitted from an external performance device. In the actual performance mode, performance data input by the performer is created using a virtual performance operator on the display screen or a keyboard of a personal computer.
In S204, sound generation processing is performed. When an automatic performance or an actual performance is being executed, a musical sound signal is generated based on the performance data, and an effect process is applied to the musical sound signal, which is amplified and output from the speaker.
[0057]
In S211 shown in FIG. 14, it is determined whether or not an input event has occurred in the virtual setting operator on the display screen shown in FIG. 12, and if any input event has occurred, the process proceeds to S212, and the input event If no occurs, the process returns to the main flowchart shown in FIG.
In S212, it is first determined whether or not the input event is related to selection of the expression process. If so, the process proceeds to S213, and if not, the process proceeds to S214.
[0058]
Here, expression is to improve the music expression by executing an articulation function on the input performance data. The performance data processing according to the present invention is a function of the facial expression processing, and will be described below on the premise of only the performance data processing according to the present invention.
In S213, it is determined whether or not the range setting of the input performance data has already been performed in S235 described later. The performance data processing may be performed on the entire music data, but is usually one block of one track, but it may be a single note or a note string of phrases of one to several measures, and is selected by the user. Do.
When the range is set, the process proceeds to S215, and when the range is not set, the process proceeds to S216.
In S215, the expression setting shown in FIG. 16 is set.
[0059]
In FIG. 16, the setting of expression is described with reference to the setting screen of FIG.
In S241, a setting screen as shown in FIG. 2 is displayed. In this setting screen, as described with reference to FIG. 1, for example, standard processing conditions are initially displayed in the drop-down combo boxes 12a, 12b, and 12c.
Click the spinner to display the list, and click to select the desired processing conditions.
Among the plurality of processing items selected according to these processing conditions, a choking process tab dialog 17 is opened as a tab dialog of the first processing item. For each parameter belonging to this processing item, combo boxes 22 and 24 are provided. , 26, and 28, for example, standard set values are displayed under the above-described processing conditions.
[0060]
In S242, it is determined whether or not there is a designation to change the machining condition depending on whether or not the spinner of the drop-down combo boxes 12a, 12b, and 12c has been clicked. If there is a designation to change, the process proceeds to S243, and if not, S244. Proceed with the process.
In S243, the drop-down combo boxes 12a, 12b, and 12c are opened to accept input. The user selects one of the items “instrument”, “genre”, and “type”, and changes the processing conditions.
In S245, one or a plurality of machining processes suitable for the inputted machining conditions are selected, parameters to be machined and initial setting values of the parameters are read from the storage device, displayed on the display screen in S246, and processed in S244. To proceed.
[0061]
In S244, it is determined whether or not the user has selected a parameter to be changed. If selected, the process proceeds to S247, and if not selected, the process proceeds to S248. In S247, the display form is changed so that it can be seen that the parameter has been selected. For example, an image as if the spinner button or knob was pressed is temporarily displayed, and the process proceeds to S248.
In S248, it is determined whether or not the user has changed the setting value for the currently selected setting parameter. If changed, the process proceeds to S249, and if not changed, the process proceeds to S250. .
In S249, a set value is accepted. In S251, the graph of the sample screen on the display screen is changed according to the received set value, and the process proceeds to S250.
In S250, it is determined whether or not the user is satisfied with the setting contents and inputs “execution of processing”, that is, whether or not the button 13 is operated, and when it is input, the process returns to S217 in FIG. “Expression process” is executed. If not, it is determined in S252 whether or not an “EXIT operation” (such as an operation of an EXIT button (not shown) or an operation of closing the screen) is input by the user. When the EXIT operation is input, the process returns to A of FIG. 14 to end the display screen input process, and returns to the main routine of FIG. 13. Otherwise, the process returns to S242 to continue the facial expression setting process. .
[0062]
Returning to FIG. 14, the description will be continued.
In S217 in FIG. 14, the performance data is processed by changing the characteristics of the performance data selected in the range according to the set value of the selected parameter.
At that time, first, the performance data selected in the range is copied to the processing buffer, and each processing item selected in accordance with the processing conditions as shown in FIG. A note or a note string suitable for processing is automatically selected, a characteristic changing process for the selected note string is automatically determined, and the determined characteristic changing process is stored in the processing buffer. It is applied cumulatively (accumulatively) to performance data.
Depending on the set value, the set value differs depending on whether it is a single sound, continuous sound, short sound or long sound, or whether or not the processing is to be performed depends on whether or not it is a stroke performance part. At this time, expression processing is not executed for the processing item disabled by the button 8b or the like or the processing processing disabled by the buttons 30 and 31 or the like.
[0063]
During calculation execution, a level meter dialog indicating that processing is in progress is displayed. When the “Cancel button” on this dialog is pressed while the level meter dialog is displayed, the calculation is interrupted.
In S218, the performance data stored in the processing buffer is output and stored in the storage device in S219. The performance data whose characteristics have been changed may be stored by overwriting the original performance data, or may be stored as other performance data. Here, the performance data to be stored is subjected to expression for a plurality of processing conditions. This performance data can be reproduced by a normal automatic performance device, and a musical tone expressed with a plurality of processing conditions can be enjoyed.
In step S218, the tone generator may be controlled based on the performance data in the performance data section whose characteristics have been changed to generate a musical sound signal for performance.
[0064]
It is assumed that the performance data whose characteristics have been changed usually describe notes and the like according to the same format as the input performance data. For example, if the original performance data is SMF (Standard MIDI File) music data using a MIDI message, the performance data to be output is also SMF.
However, if only the musical tone signal is generated by controlling the sound source unit or the effect applying unit without saving the performance data whose characteristics have been changed, the SMF is not output, but the input performance data is used as the sound source unit. What has been converted into a parameter for controlling the sound is changed according to the setting value of the selected setting parameter, and the performance data may be output as it is to the sound source unit or the DSP with effect.
[0065]
A case where no range is set in S213 will be described. At this time, the process proceeds to S216, a message box for inquiring whether the user wants real-time processing is opened, and if there is a response that real-time processing is desired, the process proceeds to S220. Otherwise, the process proceeds to S221.
Here, the real-time processing refers to a case where automatic performance data is read from a ROM or an external storage device for performance, a case where streaming performance data transmitted from an external performance device is streamed, or a performance instruction operator. It means when playing. In other words, the performance data is immediately processed to generate a musical sound signal and to generate a sound generation process. The case where the processing is not real-time processing is processing processing such as creation or editing of performance data.
In S220, the setting of real-time processing is accepted, and in S222, the facial expression setting selected by the user as described with reference to FIG. 16 is set, and the processing shown in FIG. Returning to the main flowchart shown. On the other hand, in S221, a warning message indicating that the range is not set is displayed and the process returns to the main flowchart shown in FIG.
[0066]
Next, a description will be given from S214 in which the process proceeds when there is no selection of the expression process in S212.
In S214, it is determined whether or not the input event by the virtual operator on the display screen is to set the automatic performance mode. If so, the process proceeds to S223, and if not, the process proceeds to S224. .
In S224, it is determined whether or not there is a range selection. If yes, the process proceeds to S235, and if not, the process proceeds to S236. In S235, the range is set and the process returns to the main flow. The range setting performed here is a range (track and block) in which the performance data is changed, as described above in S213, and the setting parameters according to the processing conditions are changed for the performance data in this range.
In S236, the other instructions are executed and the process returns to the main flow.
[0067]
In S223, it is determined whether or not it is a setting instruction to perform performance data from an external performance device. If so, the process proceeds to S225, and if not, the process proceeds to S226.
In S225, a user selection relating to the specific setting contents of this mode is accepted. In S227, processing relating to performance data input from the outside is set, and the process returns to the main flow.
On the other hand, in S226, it is determined whether or not it is an instruction to set an automatic performance song stored in the storage device. If so, the process proceeds to S228; otherwise, the process proceeds to S229.
[0068]
In S228, the performance music selected by the user is received, and in S230, the performance data of the automatic performance music is set to be read from the storage device, and the process returns to the main flow.
On the other hand, in S229, it is determined whether or not it is a reproduction instruction by the user. If so, the process proceeds to S231; otherwise, the process proceeds to S232.
In S231, the performance data of the designated automatic performance tune is read and playback is started, and the process returns to the main flow.
On the other hand, in S232, it is determined whether or not it is a stop instruction during automatic performance by the user. If so, the process proceeds to S233, and if not, the process proceeds to S234.
In S233, the automatic performance is stopped.
On the other hand, in S234, other instructions relating to automatic performance are executed, and the process returns to the main routine.
[0069]
FIG. 15 is a flowchart for explaining the details of the tone signal generation processing in FIG.
In S261, it is determined whether or not the automatic performance has been started in S231 of FIG. 14 and is being reproduced. If the reproduction is in progress, the process proceeds to S262, and if not, the process proceeds to S263.
In S262, the selected music piece data is read out. The song data is pre-read before the time to be sounded.
In S264, it is determined whether or not the setting for performing the expression in real time has been set in S222 in FIG. 14, and if so, the flow for performing the expression is entered and the process proceeds to S265. For example, the process proceeds to S263, and the pre-read music data is supplied as it is to the sound source at the time when the subsequent sound should be generated, and a musical sound is generated.
[0070]
In S265, in order to execute the “expression adding process”, the pre-read performance data is temporarily designated as performance data in the treatment target range, and the process proceeds to S266.
In S266, the performance data in the processing target range is changed according to the set value of the selected setting parameter, and in S267, the generated performance data is supplied to the sound source at a time to be sounded thereafter to generate a musical sound, and S263. Proceed with the process.
This change process corresponds to S217 and S218 in FIG. Therefore, performance data in the same format as the input performance data may be created once, or it is effective to generate a musical tone signal in the sound source unit without creating performance data in the same format or in a DSP. As the performance data using the parameters for giving, the sound source unit and the DSP may be directly controlled.
[0071]
If the automatic performance is not being reproduced in S261 described above, the process proceeds to S263. In S263, it is determined whether or not the performance data transmitted from the external performance device is set to be reproduced. If so, the process proceeds to S268, and if not, the process proceeds to S269.
In S268, the transmitted performance data is temporarily stored in the buffer. For streaming playback, the performance data is transmitted before the time to sound.
In S270, it is determined in S222 in FIG. 14 whether or not the setting for performing facial expression in real time has been set. If the real time facial expression processing has been set, the process proceeds to S271. The stored performance data is directly processed by the sound source.
[0072]
In S271, the performance data temporarily stored in the buffer is temporarily designated as performance data in the processing target range, and the process proceeds to S272.
In S272, the performance data is changed in accordance with the set value of the selected setting parameter, and in S273, the generated performance data is supplied to the sound source at a time for subsequent sound generation to generate a musical sound. This change process corresponds to S217 and S218 in FIG. 14 and S266 and S267 described above.
In S269, it is determined whether or not there is an input event of a performance operator such as a virtual keyboard displayed on the screen. If there is an input event, the process proceeds to S274. If there is no input event, the process returns to the main routine. .
In S274, it is determined whether or not the input event is a key-on event. If it is a key-on event, the process proceeds to S275, a tone signal corresponding to the key-on is generated, and the process returns to the main flow.
[0073]
If it is determined in S274 that the event is not a key-on event, the process proceeds to S276 to determine whether or not the operation event is a key-off event. If it is a key-off event, the process proceeds to S277, the process is performed so as to stop the sound signal being generated corresponding to the key-off event, and the process returns to the main flow.
If it is determined in S276 that the event is not a key-off event, the process proceeds to S278, the musical sound is processed in accordance with instructions from other performance operators, and the process returns to the main flow.
[0074]
Here, a supplementary explanation will be given for the expression processing in the real-time processing.
In the real-time processing shown in FIG. 15 for reading and playing automatic performance data from a ROM or external storage device, or playing back performance data from an external performance device, the user processes the performance data in S224 of FIG. Even if the selection operation of the range (the range to be processed for expression) is performed and the performance data processing range is set in S235, the set performance data processing range is not reflected in the real-time processing shown in FIG. That is, expression processing is performed on all performance data. In this case, in the real-time processing, the flow can be changed so that the user cannot select the processing range of the performance data.
In the flowchart described above, since it is possible to execute S220 and S222 in FIG. 14 even during real-time processing, the facial expression setting processing can be performed in real-time even during real-time processing. However, the flow may be changed to a flow based on the premise that the facial expression setting process can be performed only before real-time processing.
[0075]
On the other hand, the performance data processing range may be set also in the real-time processing described above.
After S265 in FIG. 15, it is determined whether or not the temporarily specified processing target range is the setting range of the processing target for facial expression. If so, the process proceeds to S266, and if not, the process proceeds to S263. In addition, after S271, it is determined whether or not the temporarily specified processing target range is a setting range for the facial expression processing target. If so, the process proceeds to S272, and if not, the process proceeds to S269.
At this time, the performance data processing range may be set as follows. In the case of the procedure for accepting the setting of the real time processing when the performance data processing range is not set as in S216 and S220 of FIG. 14, the performance data is received in S224 and S235 after the setting of the real time processing is accepted first. What is necessary is just to perform the processing range setting operation.
The performance data processing range is selected by the user by displaying pre-read song data or performance data temporarily stored in the buffer on a selection screen such as the “track view window” described with reference to FIG. Can be set.
When the performance data processing range is not set as described above and the procedure is to accept the setting of the real time processing, if the performance data processing range is set, the expression setting processing is performed during the real time processing. Cannot be done in real time. Therefore, it is assumed that the facial expression setting process is executed before the real-time process. However, the expression setting process may be changed to a flow that can be executed in real time even during real time processing.
[0076]
In the above description, it is appropriate that the performance data processing unit 6 shown in FIG. 1 analyzes the performance data within the set processing range and performs the processing of each selected processing item. The determined note or note string is automatically selected, and each processing is automatically executed. However, after performing manual settings such as the user directly specifying and selecting a note or a note string to be processed for each selected processing item, each processing item is processed. The process may be automatically executed.
[0077]
In the above description, the case where the present invention is realized on an electronic musical instrument or a personal computer has been described. In addition, it can also be realized in a game machine, a mobile phone, a fixed phone, a PDA (Personal Digital Assistant), etc. that incorporates a CPU and realizes functions by executing a program.
The performance data processing program is recorded on a recording medium such as a CD-ROM, and installed in a hard disk device of a computer for use. Alternatively, it is written in advance in a ROM of a computer or the above-mentioned CPU built-in device. Alternatively, it is downloaded from a server computer or the like on a network to a hard disk device of a computer or a flash ROM of a CPU built-in device and used.
[0078]
【The invention's effect】
As is apparent from the above description, the present invention has an effect that parameters for performing performance data processing on the basis of performance data can be set by a simple and easy-to-understand method.
As a result, it is not necessary to perform troublesome setting operations such as which parameter setting values are specifically changed in order to enhance the musical expressive power of the input performance data and enrich the performance. Even a user who has little music knowledge and experience needs only to input the desired facial expression processing conditions in consideration of the performance of the song.
Depending on the processing conditions, it is possible to set appropriate processing items, parameters and their initial setting values, and set them in order, and it is easy to check the setting values and correct the setting values.
Various musical expressions and instrumentalities can be added to performance data for natural performances, beautiful performances, fresh performances, and so on.
In addition, expression processing for a plurality of processing items can be performed cumulatively and appropriately on one piece of performance data or performance data with a specified range.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram of an embodiment of the present invention.
FIG. 2 is an explanatory diagram of an “articulation” setting dialog screen for performing parameter setting input and display according to an embodiment of the present invention.
FIG. 3 is an explanatory diagram of a “groove” setting dialog screen;
FIG. 4 is an explanatory diagram of a “vibrato” setting dialog screen;
FIG. 5 is an explanatory diagram of a “Harmony Balance” setting dialog screen.
FIG. 6 is an explanatory diagram of a “crescendo / diminuend” setting dialog screen;
FIG. 7 is an explanatory diagram of a “choking jump” setting dialog screen.
FIG. 8 is an explanatory diagram of a “slide” setting dialog screen;
FIG. 9 is an explanatory diagram of a “code stroke” setting dialog screen;
FIG. 10 is an explanatory diagram of a “stroke mute” setting dialog screen.
FIG. 11 is an explanatory diagram of a “stroke thin out” setting dialog screen.
FIG. 12 is a hardware configuration diagram illustrating an example in which an embodiment of the present invention is realized by an electronic musical instrument.
FIG. 13 is a flowchart of a main routine when an embodiment of the present invention is realized by a personal computer.
FIG. 14 is a flowchart showing details of “display screen input processing” in FIG. 13;
FIG. 15 is a flowchart showing details of “expression setting processing” in FIG. 14;
FIG. 16 is a flowchart showing details of “musical signal generation processing” in FIG. 13;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Initial processing condition output part, 2 ... Processing condition holding part, 3 ... Parameter automatic selection part, 4 ... Parameter initial setting value output part, 5 ... Parameter holding part, 6 ... Performance data processing part, 7 ... Display image creation 11, dialog screen, 12 a to 12 c, drop-down combo box for inputting machining conditions, 22, 24, 26, 28, combo box for inputting parameters, 23, 25, 27, 29, knobs for inputting parameters

Claims (7)

ユーザ指示に応じて、それぞれ数の加工条件の選択肢を有する複数の加工カテゴリーそれぞれについて、加工条件を選択する加工条件選択手段と、
前記加工条件選択されたことに応じて、保持している前記加工条件を逐次更新する加工条件保持手段と、
前記加工条件が選択されたことに応じて、前記加工条件保持手段にて保持された加工条件に基づいて1乃至複数の加工項目を特定し、該特定された加工項目に対応するパラメータを自動選択するパラメータ自動選択手段と、
ユーザ指示に応じて、前記自動選択されたパラメータに対する設定値を入力する設定値入力手段と、
前記設定値が入力されたことに応じて、保持している前記設定値を逐次更新する設定値保持手段と、
ユーザ指示により加工処理の開始が指示されたことに応じて、元の演奏データを基準にして、前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持手段に保持された前記設定値に応じて、前記元の演奏データを変化させる演奏データ加工処理手段
を有することを特徴とする演奏データ加工処理装置。
In response to a user instruction, for each of a plurality of processing categories with a choice of processing conditions multiple, and the processing condition selection means for selecting the processing conditions,
In response to the processing condition is selected, and the processing condition holding means for said sequentially updating machining conditions held,
Automatically according to the processing condition is selected, on the basis of the machining conditions stored in the processing condition holding unit 1 to identify a plurality of processing items, parameters corresponding to the processing item is the particular Automatic parameter selection means to select;
Depending on the user instruction, the setting value input means for inputting a set value for the automated selected parameters,
A set value holding means for sequentially updating the set value held in response to the input of the set value;
One or more processing items specified based on the processing conditions held by the processing condition holding means based on the original performance data in response to an instruction to start processing by a user instruction each, depending on the set value the setting value held in the holding means, the performance data processing apparatus characterized by having a performance data processing means for changing the original performance data.
過去において前記演奏データ加工処理手段にて演奏データを変化させる処理が実行されたときに使用された前記加工条件を保持し、該保持された加工条件を前記加工条件選択手段にて選択される加工条件の初期値として前記加工条件保持手段に出力する初期加工条件出力手段を有する
ことを特徴とする請求項1に記載の演奏データ加工処理装置。
Holding the processing conditions that are used when the processing for changing the hand performance data before Ki演 Kanade data processing unit in the past has been executed, it is selected the retained machining conditions in the machining condition selection means performance data processing apparatus according to claim 1, characterized in that to have a initial processing condition output means for outputting said machining condition holding means as an initial value of the processing conditions that.
前記演奏データ加工処理手段で加工対象となっている前記元の演奏データを解析することにより前記加工条件を自動選択し、該自動選択された加工条件を前記加工条件選択手段にて選択される加工条件の初期値として前記加工条件保持手段に出力する初期加工条件出力手段を有する
ことを特徴とする請求項1に記載の演奏データ加工処理装置。
The processing condition is automatically selected by analyzing the original performance data to be processed by the performance data processing means, and the processing condition selected by the processing condition selection means is selected automatically. performance data processing apparatus according to claim 1, characterized in that to have a initial processing condition output means for outputting said machining condition holding means as an initial value of the condition.
去において前記演奏データ加工処理手段にて演奏データを変化させる処理が実行されたときに使用された前記加工条件に対応するパラメータの設定値をそれぞれ保持し、該保持されたパラメータの設定値を、当該加工条件に対応する前記パラメータの初期設定値として出力する初期設定値出力手段を有し、
前記設定値保持手段は、前記パラメータ自動選択手段により前記パラメータが自動選択されき、前記加工条件保持手段に保持された加工条件に応じて、当該自動選択されたパラメータの値に前記初期設定値出力手段により出力された前記初期設定値を設定
ことを特徴とする請求項1から3までのいずれか1項に記載の演奏データ加工処理装置。
Set value of the parameter associated with the processing conditions used when processing of changing the performance data in the performance data processing means in the past has been performed to retain respectively, the set value of the holding parameters And an initial set value output means for outputting as an initial set value of the parameter corresponding to the processing condition ,
The set value retaining means, can with the parameter by the parameter automatic selection means is automatically selected, depending on the processing condition holding means held processing condition, the initial set value of the auto-selected parameters performance data processing apparatus according to any one of the to set the outputted the initial set value by the value output means from claim 1, wherein up to 3.
記演奏データ加工処理手段で加工対象となっている前記元の演奏データを解析することにより、前記加工条件に対応する前記パラメータの初期設定値を生成して出力する初期設定値出力手段を有し、
前記設定値保持手段は、前記パラメータ自動選択手段により前記パラメータが自動選択されき、前記加工条件保持手段に保持された加工条件に応じて、当該自動選択されたパラメータの値に前記初期設定値出力手段により出力された前記初期設定値を設定
ことを特徴とする請求項1から3までのいずれか1項に記載の演奏データ加工処理装置。
By analyzing the source of the performance data that is the processing target in the previous SL performance data processing unit, it has a default value output means for generating and outputting a default value of the parameter corresponding to the machining conditions And
The set value retaining means, can with the parameter by the parameter automatic selection means is automatically selected, depending on the processing condition holding means held processing condition, the initial set value of the auto-selected parameters performance data processing apparatus according to any one of the to set the outputted the initial set value by the value output means from claim 1, wherein up to 3.
元の演奏データを記憶する演奏データ記憶手段と
工処理中の前記演奏データを一時記憶する一時記憶手段と、
を有し、
前記演奏データ加工処理手段は、
ユーザ指示により加工処理の開始指示されたことに応じて、前記元の演奏データを演奏データ記憶手段から前記一時記憶手段にコピー前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持手段に保持された前記設定値に応じて、前記演奏データ記憶手段に記憶された前記元の演奏データを分析して表情付け処理を行い、該表情付け処理の処理結果を前記一時記憶手段記憶した演奏データに累積的に反映させ
とを特徴とする請求項1から5までのいずれか1項に記載の演奏データ加工処理装置。
Performance data storage means for storing original performance data ;
A temporary storage means for temporarily storing the performance data in the machining process,
Have
The performance data processing means includes:
In response to the start of the processing is instructed by the user instruction, and copying the original performance data from the performance data storage means in the temporary storage means, based on the processing conditions are held by the processing condition holding means 1 for each of a plurality of processing items identified Te, according to the setting value holding said set value held in the unit, the performance data storage means by analyzing the stored the original performance data were expressive process was carried out, Ru processing results of the expressive processing cumulatively reflect the performance data stored in the temporary storage means
Performance data processing apparatus according to any one of the this claim, wherein up to 5.
ユーザ指示に応じて、それぞれ複数加工条件の選択肢を有する複数の加工カテゴリーそれぞれについて、加工条件を選択する加工条件選択ステップと、
前記加工条件が選択されたことに応じて、保持している前記加工条件を逐次更新する加工条件保持ステップと、
前記加工条件が選択されたことに応じて、前記加工条件保持手段にて保持された加工条件に基づいて1乃至複数の加工項目を特定し、該特定された加工項目に対応するパラメータを自動選択するパラメータ自動選択ステップと、
ユーザ指示に応じて、前記自動選択されたパラメータに対する設定値を入力する設定値入力ステップと、
前記設定値が入力されたことに応じて、保持している前記設定値を逐次更新する設定値保持ステップと、
ユーザ指示により加工処理の開始が指示されたことに応じて、元の演奏データを基準にして、前記加工条件保持手段にて保持している加工条件に基づいて特定された1乃至複数の加工項目毎に、前記設定値保持ステップに保持された前記設定値に応じて、前記元の演奏データを変化させる演奏データ加工ステップ、
をコンピュータに実行させるための演奏データ加工処理プログラム。
A machining condition selection step for selecting a machining condition for each of a plurality of machining categories each having a plurality of machining condition options according to a user instruction ,
A machining condition holding step for sequentially updating the machining conditions held in response to the selection of the machining conditions;
Automatically according to the processing condition is selected, on the basis of the machining conditions stored in the processing condition holding unit 1 to identify a plurality of processing items, parameters corresponding to the processing item is the particular A parameter automatic selection step to select,
Depending on the user's instruction, a set value input step of inputting a set value for the automated selected parameters,
A set value holding step for sequentially updating the set value held in response to the input of the set value;
One or more processing items specified based on the processing conditions held by the processing condition holding means based on the original performance data in response to an instruction to start processing by a user instruction for each, depending on the set value stored in the setting value storage step, the performance data processing step of changing the original performance data,
Performance data processing program for causing a computer to execute.
JP2002292331A 2001-10-05 2002-10-04 Performance data processing device Expired - Fee Related JP4147885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002292331A JP4147885B2 (en) 2001-10-05 2002-10-04 Performance data processing device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-310476 2001-10-05
JP2001310476 2001-10-05
JP2002292331A JP4147885B2 (en) 2001-10-05 2002-10-04 Performance data processing device

Publications (2)

Publication Number Publication Date
JP2003177751A JP2003177751A (en) 2003-06-27
JP4147885B2 true JP4147885B2 (en) 2008-09-10

Family

ID=26623787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002292331A Expired - Fee Related JP4147885B2 (en) 2001-10-05 2002-10-04 Performance data processing device

Country Status (1)

Country Link
JP (1) JP4147885B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004106A (en) * 2003-06-13 2005-01-06 Sony Corp Signal synthesis method and device, singing voice synthesis method and device, program, recording medium, and robot apparatus
JP4506147B2 (en) * 2003-10-23 2010-07-21 ヤマハ株式会社 Performance playback device and performance playback control program
JP4863014B2 (en) * 2007-11-19 2012-01-25 ヤマハ株式会社 Impact timing judgment device
JP6323216B2 (en) * 2014-07-01 2018-05-16 ヤマハ株式会社 Parameter receiving apparatus, method and program
JP6596843B2 (en) * 2015-03-02 2019-10-30 ヤマハ株式会社 Music generation apparatus and music generation method
JP6847429B2 (en) * 2019-04-26 2021-03-24 株式会社アリソン Music editing system, music editing service provision method, and music editing program

Also Published As

Publication number Publication date
JP2003177751A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
JP3675287B2 (en) Performance data creation device
US7792782B2 (en) Internet music composition application with pattern-combination method
US9257053B2 (en) System and method for providing audio for a requested note using a render cache
US8785760B2 (en) System and method for applying a chain of effects to a musical composition
AU784788B2 (en) Array or equipment for composing
US20210110802A1 (en) Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US20210110800A1 (en) Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US20210110801A1 (en) Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (vmi) library management system
WO2020000751A1 (en) Automatic composition method and apparatus, and computer device and storage medium
JP3900188B2 (en) Performance data creation device
JP4147885B2 (en) Performance data processing device
JP2002229561A (en) Automatic arranging system and method
JP2013145393A (en) Musical piece data processing device, karaoke device, and program
JP3707122B2 (en) Style change device and karaoke device
Laurson et al. From expressive notation to model-based sound synthesis: a case study of the acoustic guitar
JP3705144B2 (en) Performance data change processing device
Winter Interactive music: Compositional techniques for communicating different emotional qualities
Brown Making music with Java: An introduction to computer music, java programming and the jMusic library
Rigopulos Growing music from seeds: parametric generation and control of seed-based msuic for interactive composition and performance
JP3900187B2 (en) Performance data creation device
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP2002328673A (en) Electronic musical score display device and program
WO2004025306A1 (en) Computer-generated expression in music production
JP3587133B2 (en) Method and apparatus for determining pronunciation length and recording medium
JP3747802B2 (en) Performance data editing apparatus and method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110704

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120704

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130704

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees