JP3821094B2 - Performance setting data selection device, performance setting data selection method, and recording medium - Google Patents

Performance setting data selection device, performance setting data selection method, and recording medium Download PDF

Info

Publication number
JP3821094B2
JP3821094B2 JP2002381234A JP2002381234A JP3821094B2 JP 3821094 B2 JP3821094 B2 JP 3821094B2 JP 2002381234 A JP2002381234 A JP 2002381234A JP 2002381234 A JP2002381234 A JP 2002381234A JP 3821094 B2 JP3821094 B2 JP 3821094B2
Authority
JP
Japan
Prior art keywords
song
performance
artist
setting data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002381234A
Other languages
Japanese (ja)
Other versions
JP2003177752A (en
Inventor
敦 山浦
竹夫 渋川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002381234A priority Critical patent/JP3821094B2/en
Publication of JP2003177752A publication Critical patent/JP2003177752A/en
Application granted granted Critical
Publication of JP3821094B2 publication Critical patent/JP3821094B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は演奏設定データ選択技術に関し、特に音色データ等の演奏に必要な演奏設定データを容易に選択することができる演奏設定データ選択技術に関する。
【0002】
【従来の技術】
演奏設定データ選択装置は、例えば自動伴奏装置に備えられている。ユーザは、演奏設定データ選択装置を用いて、自動伴奏を行うために必要な演奏設定データを選択することができる。演奏設定データは、例えば、伴奏スタイル、音色、テンポ、ハーモニー等の組み合わせである。
【0003】
演奏設定データを選択する方法の一つに、ワンタッチセッティング(いわゆるOTS)と呼ばれているものがある。以下、ワンタッチセッティングの操作方法を説明する。
【0004】
(1)伴奏スタイルを選択する。例えば、〔Pop Ballad Style〕を選択する。
【0005】
(2)演奏設定データを選択するため、〔OTS 〕のスイッチを押す。すると、以下に示すように、当該伴奏スタイルに合った曲イメージのリストが4個表示装置に表示される。
【0006】
〔Pop Ballad Style〕
1.Richard's Solo2.Classic Guitar3.Orchestral Ballad4.Piano Ballad
(3)表示装置に表示された4個の番号の中から1つをスイッチで選択する。
【0007】
(4)選択された番号の曲イメージに合った演奏設定データのうちの伴奏スタイル以外の残りのデータ(メロディ音色、テンポ、ハーモニー等)が自動的に設定される。
【0008】
【発明が解決しようとする課題】
ユーザは、ある曲を演奏する場合、メロディラインだけを演奏し、それに合った伴奏を自動伴奏装置に自動伴奏させることができる。その際、演奏する曲は予め決まっている。通常のユーザは、その演奏曲に合った演奏設定データを個々にマニュアルで設定することが困難であるので、ワンタッチセッティングにより自動的に演奏設定データを設定する。
【0009】
しかし、演奏を行いたい曲が決まっていても、その演奏曲に合った演奏設定データを設定するためには、どの伴奏スタイル及び曲イメージを選択したらいいのかが連想しにくい。
【0010】
また、ワンタッチセッティングでは、まず伴奏スタイルを選択し、その次に曲イメージを選択する。仮に、適切な曲イメージが分かっている場合であっても、その曲イメージを選択するには、どの伴奏スタイルを選択すればよいのかが分からないこともある。
【0011】
さらに、伴奏スタイルを選択した後に、選択する曲イメージも抽象的な名称しか表示されないので、どのような伴奏になるのか連想することが困難である。
【0012】
上記の問題があるので、ユーザが適切であろうと判断して伴奏スタイル及び曲イメージを選択してみても、実際に自動伴奏を行わせてみると、演奏したい曲に合わないこともある。
【0013】
実際に自動伴奏を行った結果、演奏曲に合わないことが分かった場合、ユーザは、その後どうようにしたら適切な伴奏を行わせることができるのかが分からない。
【0014】
本発明の目的は、演奏したい曲に適合した演奏設定データを容易に選択することができる演奏設定データ選択装置、演奏設定データ選択方法又はプログラムを記録した媒体を提供することである。
【0015】
【課題を解決するための手段】
本発明の一観点によれば、電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段と、ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルと、ユーザがアーチストまたは作曲者またはジャンルを入力する入力手段と、前記入力手段によって入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示する表示手段と、前記表示手段に表示された前記曲名のリストの中からユーザが演奏したい曲の曲名を選択して曲名を指定する指定手段と、前記指定手段により指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する設定手段とを有する演奏設定データ選択装置が提供される。
【0016】
ユーザは、曲名を指定することにより、その曲名の曲を演奏するのに適した演奏設定データを自動的に設定することができる。ユーザは、曲名からその曲の演奏を連想しやすいので、曲名を指定することにより、ユーザが連想する演奏に近い演奏設定データを設定することができる。
【0017】
本発明の他の観点によれば、電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段と、ユーザがアーチストまたは作曲者またはジャンルを入力する入力手段と、前記入力手段によって入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示する表示手段と、前記表示手段に表示された前記曲名のリストの中からユーザが演奏したい曲の曲名を選択して曲名を指定する指定手段と、前記指定手段により指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する設定手段とを有する演奏設定データ選択装置が提供される。
【0018】
記憶手段は、演奏設定データを記憶し、さらに該演奏設定データ毎に演奏に適した曲の曲名を対応付けて記憶するので、新たな演奏設定データを容易に追加することができる。また、ユーザは、曲名を指定することにより、その曲名の曲を演奏するのに適した演奏設定データを自動的に設定することができる。
【0019】
本発明の他の観点によれば、(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段を準備する工程と、(b)ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルを準備する工程と、(c)ユーザにアーチストまたは作曲者またはジャンルを入力させる工程と、(d)前記工程(c)で入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示工程と、(e)前記リスト表示工程で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる工程と、(f)前記指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する工程とを含む演奏設定データ選択方法が提供される。
【0020】
本発明の他の観点によれば、(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段を準備する工程と、(b)ユーザにアーチストまたは作曲者またはジャンルを入力させる工程と、(c)前記工程(b)で入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示工程と、(d)前記リスト表示工程で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる工程と、(e)前記指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する工程とを含む演奏設定データ選択方法が提供される。
【0021】
本発明の他の観点によれば、(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段を準備する手順と、(b)ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルを準備する手順と、(c)ユーザにアーチストまたは作曲者またはジャンルを入力させる手順と、(d)前記手順(c)で入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示手順と、(e)前記リスト表示手順で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる手順と、(f)前記指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する手順とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
【0022】
本発明の他の観点によれば、(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段を準備する手順と、(b)ユーザにアーチストまたは作曲者またはジャンルを入力させる手順と、(c)前記手順(b)で入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示手順と、(d)前記リスト表示手順で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる手順と、(e)前記指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する手順とをコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
【0023】
【発明の実施の形態】
図1〜4は、本発明の実施例による演奏設定データ選択装置を用いて演奏設定データを選択する方法を説明するための図である。本実施例による演奏設定データ選択装置は、曲そのものを選択することにより、その曲に合った演奏設定データを選択する。当該選択方法を、以下ソングイメージセッティング(略してSIS)と呼ぶ。
【0024】
図1は、演奏設定データ選択装置の表示画面20と操作スイッチ21、22、23、24、25を示す図である。
【0025】
abcスイッチ21は、曲のリストを表示画面20に表示させるためのスイッチである。当該スイッチ21を押すと、表示画面20に6個の曲名28がアルファベット順(abc順)または50音順(あいうえお順)に表示される。曲名28は、例えばAAAA,AAAB,BBBB,BBCC,CCCC,CDEFの順番で表示される。
【0026】
矢印27は、次画面があることを示す。表示画面20には、例えば一度に6個の曲名しか表示することができない。表示したい曲名が7個以上あるときは、矢印27を表示することにより、この画面には表示されていない続きの曲名があることをユーザに知らせる。
【0027】
ユーザは、カーソル移動スイッチ23を操作することにより、表示画面20に表示されるカーソル26を移動させることができる。左列の最下位の位置でカーソルを下方向に移動させようとすると、カーソルは右列の最上位の位置へ移動する。逆に、右列の最上位の位置でカーソルを上方向に移動させようとすると、カーソルは左列の最下位の位置へと移動する。カーソルを右列の最下位の位置に移動させると、続きの曲名を表示画面20に表示させることができる。
【0028】
次に、曲を選択する操作方法を説明する。ユーザは、カーソル移動スイッチ23を操作することにより、選択したい曲名の位置にカーソル26を移動させる。図1では、曲名AAAAの位置にカーソル26が位置する。この状態で、ユーザがセットスイッチ24を押すと、曲名AAAAに適合した演奏設定データが自動的に設定される。演奏設定データの詳細は、後に説明する。
【0029】
abcスイッチ21、カーソル移動スイッチ23、セットスイッチ24の他、キーワードスイッチ22と数値変更スイッチ25がある。キーワードスイッチ22は、アーチストスイッチと作曲者スイッチとジャンルスイッチからなる。ユーザは、キーワードスイッチ22を操作することにより、キーワードとしてアーチスト、作曲者またはジャンルのいずれかを選択することができる。
【0030】
以下、キーワードとしてアーチストを選択する場合の例を説明する。作曲者またはジャンルを選択した場合も同様である。
【0031】
図2は、キーワードとしてアーチストを選択した場合の表示画面を示す。キーワードとしてアーチストが選択されたことを示すため、表示画面20の上部に"Keyword List : Artist "を表示する。なお、表示画面20の下には、図1と同じ操作スイッチが存在するが、図2および図3、図4では図示を省略する。
【0032】
キーワードスイッチ22を操作することにより、キーワードとしてアーチストを選択すると、表示画面20にはアーチストのリストがアルファベット順または50音順に表示される。表示画面20には、例えば6個のアーチスト名29が表示される。アーチスト名29は、例えばAaaa,Aabb,Bbbb,Cccc,Dddd,Defgの順番で表示される。アーチストは、例えば演奏者である。矢印27は、続きのアーチストが存在することを意味する。
【0033】
次に、アーチストを選択する操作方法を説明する。ユーザは、カーソル移動スイッチ23を操作することにより、選択したいアーチスト名の位置にカーソル26を移動させる。図2では、アーチスト名Aaaaの位置にカーソル26が位置する。この状態で、ユーザがセットスイッチ24を押すと、そのアーチストにより演奏される曲名のリストが表示画面20に表示される。
【0034】
図3は、アーチスト名Aaaaを選択しセットスイッチを押したときの表示画面を示す。アーチスト名Aaaaが選択されたことを示すため、表示画面20の上部に"Artist : Aaaa "を表示する。
【0035】
表示画面20には選択したアーチスト名Aaaaにより演奏される曲のリストがアルファベット順または50音順に表示される。表示画面20には、例えば6個の曲名30が表示される。曲名30は、例えばABCD,BBCC,HIJK,MMMM,NNNN,XXYYの順番で表示される。
【0036】
図1に示したように、abcスイッチを操作したときには、全ての曲のリストが表示される。この曲数はかなり多いので、曲数を絞るためにキーワードを用いる。例えば、キーワードとしてアーチスト名Aaaaを選択すれば、図3に示すように、アーチスト名Aaaaに属する曲のリストのみが表示される。ユーザは、キーワードを用いることにより、所望の曲名を迅速または容易に見つけることができる。
【0037】
次に、図3において、曲を選択する操作方法を説明する。ユーザは、カーソル移動スイッチ23を操作することにより、選択したい曲名の位置にカーソル26を移動させる。図3では、曲名ABCDの位置にカーソル26が位置する。この状態で、ユーザがセットスイッチ24を押すと、その曲名ABCDに適合する演奏設定データが表示される。
【0038】
図4は、図3において曲名ABCDを選択した後の表示画面を示す。曲名ABCDが選択されたことを示すため、表示画面20の上部に"Song : ABCD "を表示する。
【0039】
表示画面20には選択した曲名ABCDに適合する演奏設定データの内容が表示される。表示画面20には、例えば伴奏スタイルが5番(Style : 5 )、メロディ音色が32番(Tone Col : 32 )、テンポが110(Tempo : 110 )、ハーモニーが2番(Harmony : 2)であることが表示される。
【0040】
ユーザは、表示された演奏設定データの内容でよいか否かを確認することができる。よければ、セットスイッチ24を押すことにより、当該演奏設定データを設定することができる。
【0041】
演奏設定データの内容を一部修正したい場合、ユーザは、カーソル移動スイッチ23を操作することにより、修正したい演奏設定データの位置にカーソル26を移動させる。そして、図1に示す数値変更スイッチ25を用いて、当該演奏設定データの数値を修正することができる。その後、セットスイッチ24を押すと、修正後の演奏設定データが設定される。これにより、演奏設定データの内容が部分的に気に入らない場合であっても、ユーザの望む内容にすることができる。
【0042】
図5は、本実施例による演奏設定データ選択装置を含む電子楽器の構成を示すブロック図である。
【0043】
押鍵検出回路2は、鍵盤1における鍵操作を検出し、ノートオンまたはノートオフ信号等を生成する。スイッチ検出回路4は、スイッチ3におけるスイッチ操作を検出し、スイッチ信号を生成する。
【0044】
バス17には、押鍵検出回路2およびスイッチ検出回路4の他、表示回路5、音源回路6、効果回路7、RAM9、ROM10、CPU11、外部記憶装置13、通信インターフェース14が接続される。
【0045】
RAM9は、フラグまたはバッファ等を記憶するCPU11用のワーキングエリアを有する。ROM10は、各種パラメータまたはコンピュータプログラムを記憶する。CPU11は、ROM10に記憶されているコンピュータプログラムに従い、演算または制御を行う。
【0046】
タイマ12は、CPU11に接続される。CPU11は、タイマ12から時間情報を得ることができる。通信インターフェース14は、MIDIインターフェースまたはその他の通信ネットワーク用インターフェースである。
【0047】
外部記憶装置13は、インターフェースを含み、インターフェースを介してバス17に接続される。外部記憶装置13は、例えばフロッピディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ等である。
【0048】
外部記憶装置13またはROM10には、演奏設定データを設定するために必要な曲テーブル(図6)、キーワードテーブル(図7(A)〜(C))、演奏設定データ(図8(A)〜(C))が記憶される。詳細は、後に説明する。
【0049】
上記の演奏設定データは、伴奏スタイルデータ(伴奏パターンデータ)等の演奏データを含む。外部記憶装置13に演奏データが記憶されている場合には、外部記憶装置13からRAM9に演奏データがロードされてから、演奏データの再生処理が行われる。
【0050】
CPU11は、RAM9またはROM10に記憶されている演奏データを読み出し、楽音パラメータおよび効果パラメータをそれぞれ音源回路6および効果回路7に供給する。また、CPU11は、押鍵検出回路2で生成されるノートオン信号等やスイッチ検出回路4で生成されるスイッチ信号に応じて、楽音パラメータおよび効果パラメータを生成し、それぞれ音源回路6および効果回路7に供給する。
【0051】
音源回路6は、供給される楽音パラメータに応じて楽音信号を生成する。効果回路7は、供給される効果パラメータに応じて、音源回路6で生成される楽音信号に、例えばディレイやリバーブ等の効果を付与し、サウンドシステム8に供給する。サウンドシステム8は、D/A変換器およびスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。
【0052】
なお、音源回路6は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式等、どのような方式であってもよい。
【0053】
また、音源回路6は、専用のハードを用いて構成するものに限らず、DSP+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよい。
【0054】
さらに、1つの音源回路を時分割で使用することにより複数の発音チャンネルを形成するようにしてもよいし、1つの発音チャンネルにつき1つの音源回路で複数の発音チャンネルを構成するようにしてもよい。
【0055】
コンピュータプログラムや各種データをROM10に記憶させずに、HDD内のハードディスクに記憶させることができる。ハードディスクからRAM9にコンピュータプログラム等を読み出すことにより、ROM10にコンピュータプログラム等を記憶させている場合と同様の動作をCPU11にさせることができる。このようにすると、コンピュータプログラム等の追加やバージョンアップ等が容易に行える。
【0056】
また、コンピュータプログラムや各種データをCD−ROMに記憶させることもできる。CD−ROMからハードディスクにコンピュータプログラム等をコピーすることができる。コンピュータプログラム等の新規インストールやバージョンアップを容易に行うことができる。
【0057】
通信インターフェース14は、LAN(ローカルエリアネットワーク)やインターネット、電話回線等の通信ネットワーク15に接続されており、該通信ネットワーク15を介して、サーバコンピュータ16と接続される。HDD内にコンピュータプログラム等が記憶されていない場合、サーバコンピュータ16からコンピュータプログラム等をダウンロードすることができる。クライアントとなる電子楽器は、通信インターフェース14及び通信ネットワーク15を介してサーバコンピュータ16へとコンピュータプログラム等のダウンロードを要求するコマンドを送信する。サーバコンピュータ16は、このコマンドを受け、要求されたコンピュータプログラム等を、通信ネットワーク15を介して電子楽器へと配信し、電子楽器が通信インターフェース14を介して、これらコンピュータプログラム等を受信してHDD内に蓄積することにより、ダウンロードが完了する。
【0058】
図6は、RAM等に記憶される曲テーブルの構成を示す。曲テーブルは、曲番号35と曲名36とキーワード37と演奏設定データ38を関連付けて記憶する。例えば、400曲の曲名36が記憶され、当該曲名36にそれぞれ曲番号35が対応している。曲番号35の増加に従って、曲名がアルファベット順または50音順に並んでいることが好ましい。
【0059】
キーワード37は、アーチスト番号と作曲者番号とジャンル番号からなる。例えば、曲番号1は、曲名がAAAAであり、アーチスト番号が35、作曲者番号が5、ジャンル番号が22である。各番号は、キーワードの識別番号である。キーワード37を用いれば、特定のキーワードについてのみ曲名を検索することができる。
【0060】
演奏設定データ38は、スタイル番号と音色番号とテンポ値とハーモニー番号からなる。例えば、曲番号1(曲名がAAAA)が選択されると、スタイル番号が10、音色番号が1、テンポ値が150、ハーモニー番号が2に設定される。
【0061】
図7(A)〜(C)は、RAM等に記憶されるキーワードテーブルの構成を示す。
【0062】
図7(A)は、アーチストテーブルの構成を示す。アーチストテーブルは、アーチスト番号とアーチスト名を関連付けて記憶する。アーチスト番号は、図6のキーワード37のアーチスト番号に対応する。例えば、アーチストテーブルには80のアーチスト名が記憶され、当該アーチスト名にそれぞれアーチスト番号が対応する。アーチスト番号に従って、アーチスト名がアルファベット順または50音順に並んでいることが好ましい。
【0063】
図7(B)は、作曲者テーブルの構成を示す。作曲者テーブルは、作曲者番号と作曲者名を関連付けて記憶する。作曲者番号は、図6のキーワード37の作曲者番号に対応する。例えば、作曲者テーブルには62の作曲者名が記憶される。作曲者番号に従って、作曲者名がアルファベット順または50音順に並んでいることが好ましい。
【0064】
図7(C)は、ジャンルテーブルの構成を示す。ジャンルテーブルは、ジャンル番号とジャンル名を関連付けて記憶する。ジャンル番号は、図6のキーワード37のジャンル番号に対応する。ジャンル名は、例えばロック、ポップス、ダンス、演歌等である。ジャンル番号は、使用頻度の高いジャンルの順番、または類似したジャンルを並べた順番が好ましい。
【0065】
図8(A)〜(C)は、RAM等に記憶される演奏設定データの構成を示す。図8(A)は、スタイルデータの構成を示す。スタイルデータは、スタイル番号に関連付けられる。スタイル番号は、図6の演奏設定データ38のスタイル番号に対応する。スタイルデータは、スタイル名、初期テンポ、拍子、小節数、リズムパターン、ベースパターン、コード(和音)パターンを含む。
【0066】
初期テンポは、図6のテンポ値とは異なる。図6のテンポ値は、上記の方法により曲名を選択することにより設定されるテンポ値である。一方、図8(A)の初期テンポは、曲名を選択する方法ではなく、スタイルのみを単独で選択する際に設定されるテンポである。したがって、曲名を選択した際には、初期テンポは無視され、図6のテンポ値が採用される。
【0067】
上記のリズムパターン、ベースパターン、コードパターンは、イントロ、メイン、フィルイン、エンディング等の複数セクションのパターンを含む。
【0068】
図8(B)は、音色データの構成を示す。音色データは、音色番号に関連付けられる。音色番号は、図6の演奏設定データ38の音色番号に対応する。音色データは、音色名と音色パラメータを含む。
【0069】
図8(C)は、ハーモニーデータの構成を示す。ハーモニーデータは、ハーモニー番号に関連付けられる。ハーモニー番号は、図6の演奏設定データ38のハーモニー番号に対応する。ハーモニー番号0は、ハーモニーデータを有さず、ハーモニーが付加されない。例えば、ピアノソロ演奏を行いたい場合には余分なハーモニーは付加されない方がよい。
【0070】
ハーモニー番号が1以上のものは、ハーモニーデータを有し、ハーモニーが付加される。ハーモニーデータは、ハーモニー名とハーモニーパラメータを含む。ハーモニーパラメータは、演奏者が演奏するメロディ音に対して何度の音を何音だけ付加するのか、またその時の音量や発音タイミングの情報を含む。
【0071】
図9は、abcスイッチが操作されたときにCPUが処理するフローチャートである。
【0072】
ステップSA1では、曲テーブル(図6)内の全ての曲番号と曲名をソートテーブルに登録する。図10に、ソートテーブルの構成を示す。図10は、キーワード検索を行った後に曲番号と曲名を登録した場合のソートテーブルの例を示しており、このステップにおけるソートテーブルの内容(ソート順位と曲番号の対応)は、図10の場合と必ずしも一致しない。ソートテーブルには、例えば全400曲の曲番号と曲名が登録される。ソートテーブルは、ソート順位と曲番号と曲名を対応付けて記憶する。
【0073】
図6の曲テーブルにおいてアルファベット順または50音順に曲名が並んでいるときには、abcスイッチを操作すれば、ソート順位と曲番号が一致してソートテーブルに登録される。しかし、図6の曲テーブルにアルファベット順または50音順に曲名が並んでいないときには、曲名をアルファベット順または50音順にソートしてから登録する。図6の曲テーブルにアルファベット順または50音順に曲名が並んでいなくても、ソートテーブルには、曲名がアルファベット順または50音順に並ぶ。
【0074】
ステップSA2では、ソートテーブルに基づいて、曲番号順に曲名リストを表示装置に表示する。表示装置には、アルファベット順または50音順で曲名が表示される(図1)。
【0075】
ステップSA3では、キーワードモードフラグKWD_MDを0にセットし、abcスイッチの処理を終了する。キーワードモードフラグKWD_MDは、0のとき曲選択モードであり、1のときキーワード選択モードである。
【0076】
図11は、キーワードスイッチが操作されたときにCPUが処理するフローチャートである。
【0077】
ステップSB1では、操作されたスイッチに対応するキーワードテーブル(図7(A)〜(C))に基づいて、キーワードリストを表示装置に表示する(図2)。キーワードがアーチストまたは作曲者のときには、アルファベット順または50音順に表示され、キーワードがジャンルのときには、使用頻度が高い順や、ジャンルが類似する順等で表示される。
【0078】
ステップSB2では、キーワードモードフラグKWD_MDを1にセットし、キーワードスイッチの処理を終了する。フラグKWD_MDを1にすることにより、キーワード選択モードになる。
【0079】
図12は、カーソル移動スイッチが操作されたときにCPUが処理するフローチャートである。
【0080】
ステップSC1では、フラグKWD_MDが1か否かをチェックする。フラグKWD_MDが0のときには、曲選択モードであるので、ステップSC4へ進む。
【0081】
ステップSC4では、ソートテーブル(図10)のアドレスポインタを移動する。初期時には、図10に示すように、アドレスポインタPがテーブルの先頭に位置する。例えば、カーソル上方向スイッチを操作すれば、アドレスポインタは減じられ、カーソル下方向スイッチを操作すればアドレスポインタは増じられる。
【0082】
ステップSC5では、ソートテーブルのアドレスポインタが示す曲名へとカーソルを表示画面上で移動させて表示する。また、必要に応じて画面のスクロールや、続きの曲があることを示す矢印27の表示を行う。その後、カーソル移動スイッチの処理を終了する。
【0083】
ステップSC1においてフラグKWD_MDが1であると判断されたときにはキーワード選択モードであることを意味するので、ステップSC2へ進む。すなわち、キーワードスイッチを操作した後に、カーソル移動スイッチを操作した場合は、以下の処理を行う。
【0084】
ステップSC2では、キーワードテーブル(図7(A)〜(C))のアドレスポインタを移動する。
【0085】
ステップSC3では、キーワードテーブルのアドレスポインタが示すキーワードへと表示画面上のカーソルを移動する。また、必要に応じて画面のスクロールや、続きのキーワードがあることを示す矢印27の表示を行う。その後、カーソル移動スイッチの処理を終了する。
【0086】
図13は、セットスイッチが操作されたときにCPUが処理するフローチャートである。
【0087】
ステップSD1では、フラグKWD_MDが1か否かをチェックする。フラグKWD_MDが1のときには、キーワード選択モードであるので、ステップSD2へ進む。例えば、表示画面に表示されたリストの中から所望のアーチスト名等にカーソルを合わせ、セットスイッチを操作した場合は、以下の処理を行う。
【0088】
ステップSD2では、キーワードテーブル(図7(A)〜(C))においてアドレスポインタが示すキーワードの番号を含む曲を曲テーブル(図6)中から検索する。例えば、アーチスト番号1が選択されると、アーチスト番号1を含む曲番号と曲名を検索する。
【0089】
ステップSD3では、見つかった全ての曲番号と曲名をソートテーブル(図10)に登録する。キーワードに一致する曲番号と曲名のみが登録されるので、図10に示すように、通常、曲番号は不連続の番号順で登録される。
【0090】
ステップSD4では、ソートテーブル中の曲を曲番号順に並べ替える。曲番号は、曲名のアルファベット順または50音順に並んでいるので、ソートテーブルには曲名がアルファベット順または50音順に並ぶ。
【0091】
ステップSD5では、指定されたキーワード名を表示画面に表示する。例えば、図3に示すように、表示画面の上部に"Artist : Aaaa "を表示する。そして、ソートテーブルに基づいて曲番号順(すなわちアルファベット順または50音順)に曲名リスト30(図3)を表示する。
【0092】
ステップSD6では、キーワード選択モードから曲選択モードに切り替えるため、フラグKWD_MDを0にセットする。その後、セットスイッチの処理を終了する。
【0093】
ステップSD1においてフラグKWD_MDが0であると判断されたときには、曲選択モードであることを意味するので、ステップSD7へ進む。例えば、表示画面に表示された曲名の中から所望の曲名にカーソルを合わせ、セットスイッチを操作した場合は、以下の処理を行う。
【0094】
ステップSD7では、ソートテーブルにおいてアドレスポインタが示す曲番号に対応する演奏設定データ38を選択し、曲テーブル(図6)から読み出す。
【0095】
ステップSD8では、読み出された演奏設定データに基づいて演奏環境(伴奏スタイル、音色、テンポ、ハーモニー等)を設定する。
【0096】
ステップSD9では、ユーザが当該演奏設定データを修正するための操作を行ったときには修正後の演奏設定データに基づいて演奏環境を設定する。ユーザは、曲テーブルから読み出された演奏設定データでは不満があるときには、数値変更スイッチを用いて演奏設定データを修正することができる(図4)。その後、セットスイッチの処理を終了する。
【0097】
図14は、図8(A)のスタイルデータに代わる他のスタイルデータの構成例を示す。
【0098】
スタイルデータは、スタイル番号に関連付けられる。スタイルデータは、スタイル名、初期テンポ、拍子、伴奏の繰り返しパターンの小節数、リズムパターン、ベースパターン、コードパターンの他、曲データを含む。例えば、スタイル番号1において、当該スタイル番号に対応する曲が4つある場合には、曲1データ、曲2データ、曲3データ、曲4データを含む。
【0099】
曲データは、曲名、アーチスト番号、作曲者番号、ジャンル番号、音色番号、テンポ値、ハーモニー番号を含む。これにより、アーチスト番号、作曲者番号、ジャンル番号を基にキーワード検索が可能になる。また、音色番号等の演奏設定データの設定が可能になる。スタイルデータが曲データを含むので、図6の曲テーブルは不要になる。
【0100】
スタイルデータに曲データを含ませる構成をとれば、後からスタイルデータを容易に補充することができる。図14のスタイルデータの代わりに、図8(A)のスタイルデータを用いる場合には、新たなスタイルデータを追加することは容易ではない。その場合、図8(A)のスタイルデータに新たなスタイルデータを追加するだけではなく、それに対応して図6の曲テーブル中に新たなスタイル番号を登録する必要があり、煩雑である。それに対し、図14のスタイルデータによれば、新たなスタイルデータを追加するだけでよく、他の部分を変更する必要がなく、データ作成が容易である。また、追加分のスタイルデータは、フロッピディスク等によりユーザに供給することができる。
【0101】
図15は、図8(B)の音色データに代わる他の音色データの構成例を示す。音色データは、音色番号に関連付けられる。音色データは、音色名、音色パラメータの他、曲データを含む。例えば、音色番号1において、当該音色番号に対応する曲が4つある場合には、曲1データ、曲2データ、曲3データ、曲4データを含む。
【0102】
曲データは、曲名、アーチスト番号、作曲者番号、ジャンル番号、スタイル番号、テンポ値、ハーモニー番号を含む。これにより、アーチスト番号等を基にキーワード検索が可能になり、図6の曲テーブルは不要になる。音色データに曲データを含ませる構成をとれば、後から音色データを容易に補充することができる。
【0103】
図16は、図14に示すスタイルデータまたは図15に示す音色データを用いたときに、セットスイッチが操作されたときCPUが処理するフローチャートである。
【0104】
ステップSE1では、フラグKWD_MDが1か否かをチェックする。フラグKWD_MDが1のときには、キーワード選択モードであるので、ステップSE2へ進む。
【0105】
ステップSE2では、キーワードテーブル(図7(A)〜(C))においてアドレスポインタが示すキーワードの番号を含む曲を、スタイルデータ(図14)(または音色データ(図15))中から検索する。
【0106】
ステップSE3では、見つかった全ての曲名と該曲名を含むスタイル番号(または音色番号)、該スタイル(または音色)中の曲番号をソートテーブル(図17)に登録する。図17に示すように、ソートテーブルには、スタイル番号、スタイル中の曲番号、曲名がそれぞれ対応付けられる。
【0107】
ステップSE4では、ソートテーブル中の曲を曲名のアルファベット順または50音順に並べ替える。
【0108】
ステップSE5では、指定されたキーワード名を表示画面に表示する。そして、ソートテーブルに基づいて曲番号順に曲名リスト30(図3)を表示する。
【0109】
ステップSE6では、キーワード選択モードから曲選択モードに切り替えるため、フラグKWD_MDを0にセットする。その後、セットスイッチの処理を終了する。
【0110】
ステップSE1においてフラグKWD_MDが0であると判断されたときには、曲選択モードであることを意味するので、ステップSE7へ進む。
【0111】
ステップSE7では、ソートテーブルにおいてアドレスポインタが示すスタイル番号(または音色番号)、および曲番号に対応する演奏設定データを選択し、スタイルデータ(図14)(または音色データ(図15))中から読み出す。
【0112】
ステップSE8では、読み出された演奏設定データに基づいて演奏環境(音色(または伴奏スタイル)、テンポ、ハーモニー等)を設定する。
【0113】
ステップSE9では、ユーザが当該演奏設定データを修正するための操作を行ったときには修正後の演奏設定データに基づいて演奏環境を設定する。その後、セットスイッチの処理を終了する。
【0114】
本実施例による演奏設定データ選択装置は、曲名そのものを選択することにより、演奏したい曲に適合した演奏設定データを容易に設定することができる。いわゆるソングイメージセッティングを行うことができる。また、アーチスト、作曲者、ジャンル等をキーワードとして曲名を検索すれば、容易かつ迅速に曲名を選択することができる。
【0115】
ユーザは、演奏したい曲が決まっている場合、その曲名を選択すれば、その演奏曲に合った演奏設定データが自動的に設定される。ユーザは、どの伴奏スタイル等を選んだらいいのかを悩む必要がない。
【0116】
ユーザは、曲名からその曲を連想できればかなり具体的なイメージをつかむことができるので、曲名の選択に迷うことは少ない。また、ユーザがイメージする演奏と、実際に行われる演奏とが一致し易い。
【0117】
なお、演奏設定データは、伴奏スタイル、音色等の他、和音進行データ、イントロパターンデータ、エンディングパターンデータ、リバーブ等の効果データ、左手による和音指定モード(シングルフィンガー、フィンガーコード、フルキーボード等)データ、メロディパートや伴奏パートの音量データ等を含むことができる。キーワードは、アーチスト名等の他、その他のキーワードを含むことができる。
【0118】
演奏設定データ選択装置は、電子楽器の形態に限らず、パソコンとアプリケーションソフトウエアとによる形態でもよい。アプリケーションソフトウエアは、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体に記憶させ、パソコンに供給するようにしてもよいし、ネットワークを介して供給するようにしてもよい。
【0119】
また、演奏設定データ選択装置は、音源装置や自動演奏装置等と共に電子楽器に内蔵されている場合に限らず、それぞれが別体の装置であり、MIDIや各種ネットワーク等の通信手段を用いて各装置を接続するようなものであってもよい。さらに、鍵盤楽器に限らず、弦楽器タイプ、管楽器タイプ、打楽器タイプ等に適用することもできる。
【0120】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。
【0121】
【発明の効果】
以上説明したように、本発明によれば、曲名を指定することにより、その曲名の曲を演奏するのに適した演奏設定データを自動的に設定することができる。演奏者は、曲名からその曲の演奏を連想しやすいので、曲名を指定することにより、ユーザが連想する演奏に近い演奏設定データを設定することができる。
【図面の簡単な説明】
【図1】 本発明の実施例による演奏設定データ選択装置を用いて演奏設定データを選択するための表示画面(1)を示す図である。
【図2】 本実施例による演奏設定データ選択装置を用いて演奏設定データを選択するための表示画面(2)を示す図である。
【図3】 本実施例による演奏設定データ選択装置を用いて演奏設定データを選択するための表示画面(3)を示す図である。
【図4】 本実施例による演奏設定データ選択装置を用いて演奏設定データを選択するための表示画面(4)を示す図である。
【図5】 本実施例による演奏設定データ選択装置の構成を示すブロック図である。
【図6】 曲テーブルの構成を示す図である。
【図7】 キーワードテーブルの構成を示す図である。図7(A)はアーチストテーブル、図7(B)は作曲者テーブル、図7(C)はジャンルテーブルの構成を示す図である。
【図8】 演奏設定データの構成を示す図である。図8(A)はスタイルデータ、図8(B)は音色データ、図8(C)はハーモニーデータの構成を示す図である。
【図9】 abcスイッチが操作されたときにCPUが処理するフローチャートである。
【図10】 ソートテーブルの構成を示す図である。
【図11】 キーワードスイッチが操作されたときにCPUが処理するフローチャートである。
【図12】 カーソル移動スイッチが操作されたときにCPUが処理するフローチャートである。
【図13】 セットスイッチが操作されたときにCPUが処理するフローチャートである。
【図14】 他のスタイルデータの構成例を示す図である。
【図15】 他の音色データの構成例を示す図である。
【図16】 セットスイッチが操作されたときにCPUが処理する他のフローチャートである。
【図17】 他のソートテーブルの構成を示す図である。
【符号の説明】
1 鍵盤、 2 鍵盤検出回路、 3 スイッチ、 4 スイッチ検出回路、 5 表示回路、 6 音源回路、 7 効果回路、 8 サウンドシステム、 9 RAM、 10 ROM、 11 CPU、 12 タイマ、 13 外部記憶装置、 14 インターフェース、 15通信ネットワーク、 16 サーバコンピュータ、 17 バス、 20表示画面、 21 abcスイッチ、 22 キーワードスイッチ、23 カーソル移動スイッチ、 24 セットスイッチ、 25 数値変更スイッチ、 26 カーソル、 37 キーワードデータ、 38 演奏設定データ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a performance setting data selection technique, and more particularly to a performance setting data selection technique capable of easily selecting performance setting data necessary for performance such as timbre data.
[0002]
[Prior art]
The performance setting data selection device is provided in, for example, an automatic accompaniment device. The user can select performance setting data necessary for performing automatic accompaniment using the performance setting data selection device. The performance setting data is, for example, a combination of accompaniment style, tone color, tempo, harmony, and the like.
[0003]
One method of selecting performance setting data is called one-touch setting (so-called OTS). Hereinafter, an operation method of the one-touch setting will be described.
[0004]
(1) Select an accompaniment style. For example, select [Pop Ballad Style].
[0005]
(2) Press the [OTS] switch to select performance setting data. Then, as shown below, a list of four song images that match the accompaniment style is displayed on the display device.
[0006]
[Pop Ballad Style]
1.Richard's Solo 2.Classic Guitar 3.Orchestral Ballad 4.Piano Ballad
(3) One of the four numbers displayed on the display device is selected by a switch.
[0007]
(4) The remaining data (melody tone color, tempo, harmony, etc.) other than the accompaniment style among the performance setting data matching the music image of the selected number is automatically set.
[0008]
[Problems to be solved by the invention]
When a user plays a certain piece of music, he or she can play only the melody line and cause the automatic accompaniment apparatus to automatically accompany the accompaniment. At that time, the music to be played is predetermined. Normally, it is difficult for a normal user to manually set performance setting data suitable for the performance music piece, so the performance setting data is automatically set by one-touch setting.
[0009]
However, even if a song to be played is decided, it is difficult to associate which accompaniment style and song image should be selected in order to set performance setting data suitable for the song.
[0010]
In the one-touch setting, first, an accompaniment style is selected, and then a song image is selected. Even if an appropriate song image is known, it may not be clear which accompaniment style should be selected to select the song image.
[0011]
Furthermore, after selecting an accompaniment style, only an abstract name is displayed for the music image to be selected, so it is difficult to associate the type of accompaniment.
[0012]
Because of the above-mentioned problems, even if the user determines that the accompaniment style and the song image are appropriate and selects the accompaniment style and the song image, if the user actually performs the automatic accompaniment, the song may not match the song to be played.
[0013]
As a result of actually performing automatic accompaniment, if it is found that it does not match the musical composition, the user does not know how to perform appropriate accompaniment thereafter.
[0014]
An object of the present invention is to provide a performance setting data selection device, a performance setting data selection method, or a medium on which a program is recorded, which can easily select performance setting data suitable for a song to be played.
[0015]
[Means for Solving the Problems]
According to one aspect of the present invention, data storage means for storing a plurality of performance setting data used for setting a performance environment for an electronic musical instrument when a user plays a song using the electronic musical instrument; Music setting data stored in the data storage means suitable for setting a performance environment for the electronic musical instrument when the user performs each music name of a plurality of music played by the user and the music of the music name A table that stores the correspondence between the song name and the artist or composer or genre, an input means for the user to input the artist or composer or genre, and the artist or composition entered by the input means Display means for displaying a list of song names corresponding to the artist or composer or genre based on the table from the artist or genre; The table includes the designation means for selecting the song name of the song that the user wants to play from the list of song names displayed on the display means, and the performance setting data corresponding to the song name designated by the designation means. A performance setting data selection device having setting means for reading out from the data storage means and setting a performance environment for the electronic musical instrument is provided.
[0016]
By designating the song name, the user can automatically set performance setting data suitable for playing the song with that song name. Since the user can easily associate the performance of the song with the song name, the performance setting data close to the performance associated with the user can be set by designating the song name.
[0017]
According to another aspect of the present invention, when a user plays a song using an electronic musical instrument, a plurality of performance setting data used for setting a performance environment for the electronic musical instrument is stored, and the performance For each setting data, a song name of a song suitable for the user to perform using the performance setting data is stored in association with each other, and storage means for storing an artist, a composer or a genre corresponding to the song name, and a user An input means for inputting an artist or composer or genre, and a display for displaying a list of song names corresponding to the artist, composer or genre based on the storage means from the artist or composer or genre input by the input means And a song name of a song that the user wants to play from the list of song names displayed on the display means, and specify a song name. There is provided a performance setting data selection device comprising: designation means for performing, and setting means for reading performance setting data corresponding to a song name designated by the designation means from the storage means and setting a performance environment for the electronic musical instrument. The
[0018]
The storage means stores performance setting data, and further stores the performance setting data in association with the music titles of songs suitable for performance, so that new performance setting data can be easily added. In addition, the user can automatically set performance setting data suitable for playing a song having the song name by designating the song name.
[0019]
According to another aspect of the present invention, (a) data for storing a plurality of performance setting data used for setting a performance environment for an electronic musical instrument when a user plays the song using the electronic musical instrument. A step of preparing storage means; and (b) suitable for setting a performance environment for the electronic musical instrument when the user plays each song name of a plurality of songs played by the user and the song having the song name. Preparing a table for storing a correspondence relationship between performance setting data stored in the data storage means and a correspondence relationship between the song name and the artist or composer or genre; and (c) providing the user with an artist or composer or A step of inputting a genre, and (d) an artist, composer or genre based on the table from the artist or composer or genre input in step (c). A list display step of displaying a list of song names corresponding to the tracks, (e) a step of allowing a user to select a song name of a song to be played from the list of song names displayed in the list display step, (F) A performance setting data selection method including a step of reading performance setting data corresponding to the designated music title from the data storage means based on the table and setting a performance environment for the electronic musical instrument is provided. The
[0020]
According to another aspect of the present invention, (a) when a user plays a song using an electronic musical instrument, a plurality of performance setting data used for setting a performance environment for the electronic musical instrument is stored; Further, storage means for storing, in association with each performance setting data, a song name of a song suitable for a user to perform using the performance setting data, and storing an artist, a composer, or a genre corresponding to the song name. And (b) allowing the user to input an artist or composer or genre; (c) from the artist or composer or genre input in step (b), based on the storage means, Or a list display step of displaying a list of song names corresponding to the composer or genre, and (d) from the list of song names displayed in the list display step A step of causing the user to select a song name of a song to be played and designating the song name; and (e) reading performance setting data corresponding to the designated song name from the storage means and setting a performance environment for the electronic musical instrument. A performance setting data selection method is provided.
[0021]
According to another aspect of the present invention, (a) data for storing a plurality of performance setting data used for setting a performance environment for an electronic musical instrument when a user plays the song using the electronic musical instrument. A procedure for preparing a storage means; and (b) suitable for setting a performance environment for the electronic musical instrument when the user plays each song name of a plurality of songs played by the user and the song having the song name. A procedure for preparing a table for storing a correspondence relationship between the performance setting data stored in the data storage means and a correspondence relationship between the song name and the artist or composer or genre; A procedure for inputting a genre, and (d) an artist or composer or genre based on the table from the artist or composer or genre entered in step (c). A list display procedure for displaying a list of song names corresponding to a track; (e) a procedure for allowing a user to select a song name of a song to be played from the list of song names displayed in the list display procedure and specifying a song name; (F) Recording a program for causing a computer to execute performance setting data corresponding to the designated song name from the data storage means based on the table and to set a performance environment for the electronic musical instrument. A computer-readable recording medium is provided.
[0022]
According to another aspect of the present invention, (a) when a user plays a song using an electronic musical instrument, a plurality of performance setting data used for setting a performance environment for the electronic musical instrument is stored; Further, storage means for storing, in association with each performance setting data, a song name of a song suitable for a user to perform using the performance setting data, and storing an artist, a composer, or a genre corresponding to the song name. And (b) a procedure for allowing the user to input an artist or composer or genre, and (c) an artist or composer or genre entered in step (b) based on the storage means. Or a list display procedure for displaying a list of song names corresponding to the composer or genre, and (d) from the list of song names displayed in the list display procedure A procedure for allowing the user to select a song name of a song to be played and designating the song name; and (e) reading performance setting data corresponding to the designated song name from the storage means and setting a performance environment for the electronic musical instrument. A computer-readable recording medium recording a program for causing a computer to execute the procedure is provided.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
1 to 4 are diagrams for explaining a method of selecting performance setting data using a performance setting data selection device according to an embodiment of the present invention. The performance setting data selection device according to the present embodiment selects performance setting data suitable for a song by selecting the song itself. This selection method is hereinafter referred to as song image setting (SIS for short).
[0024]
FIG. 1 is a diagram showing a display screen 20 and operation switches 21, 22, 23, 24, 25 of the performance setting data selection device.
[0025]
The abc switch 21 is a switch for displaying a list of songs on the display screen 20. When the switch 21 is pressed, six music titles 28 are displayed on the display screen 20 in alphabetical order (abc order) or 50-sound order (aiueo order). The song title 28 is displayed in the order of AAAA, AAAB, BBBB, BBCC, CCCC, CDEF, for example.
[0026]
An arrow 27 indicates that there is a next screen. For example, only six song names can be displayed on the display screen 20 at a time. When there are seven or more song titles to be displayed, an arrow 27 is displayed to notify the user that there is a song title that is not displayed on this screen.
[0027]
The user can move the cursor 26 displayed on the display screen 20 by operating the cursor movement switch 23. If the cursor is moved downward at the lowest position in the left column, the cursor moves to the highest position in the right column. Conversely, if the cursor is moved upward at the highest position in the right column, the cursor moves to the lowest position in the left column. When the cursor is moved to the lowest position in the right column, the subsequent song names can be displayed on the display screen 20.
[0028]
Next, an operation method for selecting a song will be described. The user operates the cursor movement switch 23 to move the cursor 26 to the position of the song title to be selected. In FIG. 1, the cursor 26 is positioned at the position of the song title AAAA. In this state, when the user presses the set switch 24, performance setting data suitable for the song name AAAA is automatically set. Details of the performance setting data will be described later.
[0029]
In addition to the abc switch 21, the cursor movement switch 23, and the set switch 24, there are a keyword switch 22 and a numerical value change switch 25. The keyword switch 22 includes an artist switch, a composer switch, and a genre switch. The user can select any one of artist, composer, and genre as a keyword by operating the keyword switch 22.
[0030]
Hereinafter, an example in which an artist is selected as a keyword will be described. The same applies when a composer or genre is selected.
[0031]
FIG. 2 shows a display screen when an artist is selected as a keyword. In order to indicate that the artist has been selected as a keyword, “Keyword List: Artist” is displayed at the top of the display screen 20. Note that the same operation switches as in FIG. 1 exist below the display screen 20, but are not illustrated in FIGS. 2, 3, and 4.
[0032]
When an artist is selected as a keyword by operating the keyword switch 22, a list of artists is displayed on the display screen 20 in alphabetical order or alphabetical order. For example, six artist names 29 are displayed on the display screen 20. The artist name 29 is displayed in the order of, for example, Aaaa, Aabb, Bbbb, Cccc, Ddddd, Defg. The artist is, for example, a performer. Arrow 27 means that there is a continuing artist.
[0033]
Next, an operation method for selecting an artist will be described. The user operates the cursor movement switch 23 to move the cursor 26 to the position of the artist name to be selected. In FIG. 2, the cursor 26 is positioned at the position of the artist name Aaaa. In this state, when the user presses the set switch 24, a list of song names to be played by the artist is displayed on the display screen 20.
[0034]
FIG. 3 shows a display screen when the artist name Aaaa is selected and the set switch is pressed. “Artist: Aaaa” is displayed at the top of the display screen 20 to indicate that the artist name Aaaa has been selected.
[0035]
On the display screen 20, a list of songs played by the selected artist name Aaaa is displayed in alphabetical order or 50-sound order. For example, six music titles 30 are displayed on the display screen 20. The song title 30 is displayed in the order of ABCD, BBCC, HIJK, MMMM, NNNN, XXYY, for example.
[0036]
As shown in FIG. 1, when the abc switch is operated, a list of all songs is displayed. Since the number of songs is quite large, keywords are used to narrow down the number of songs. For example, if the artist name Aaaa is selected as a keyword, only a list of songs belonging to the artist name Aaaa is displayed as shown in FIG. The user can quickly or easily find a desired song name by using a keyword.
[0037]
Next, an operation method for selecting a song in FIG. 3 will be described. The user operates the cursor movement switch 23 to move the cursor 26 to the position of the song title to be selected. In FIG. 3, the cursor 26 is positioned at the position of the song title ABCD. In this state, when the user presses the set switch 24, performance setting data matching the song name ABCD is displayed.
[0038]
FIG. 4 shows a display screen after the song title ABCD is selected in FIG. “Song: ABCD” is displayed at the top of the display screen 20 to indicate that the song title ABCD has been selected.
[0039]
The display screen 20 displays the contents of performance setting data suitable for the selected song title ABCD. On the display screen 20, for example, the accompaniment style is No. 5 (Style: 5), the melody tone is No. 32 (Tone Col: 32), the tempo is 110 (Tempo: 110), and the harmony is No. 2 (Harmony: 2). Is displayed.
[0040]
The user can confirm whether or not the contents of the displayed performance setting data are acceptable. If desired, the performance setting data can be set by pressing the set switch 24.
[0041]
When it is desired to partially correct the contents of the performance setting data, the user operates the cursor movement switch 23 to move the cursor 26 to the position of the performance setting data to be corrected. The numerical value of the performance setting data can be corrected using the numerical value change switch 25 shown in FIG. Thereafter, when the set switch 24 is pressed, the corrected performance setting data is set. As a result, even if the contents of the performance setting data are partially unfavorable, the contents desired by the user can be obtained.
[0042]
FIG. 5 is a block diagram showing a configuration of an electronic musical instrument including a performance setting data selection device according to this embodiment.
[0043]
The key press detection circuit 2 detects a key operation on the keyboard 1 and generates a note-on or note-off signal or the like. The switch detection circuit 4 detects a switch operation in the switch 3 and generates a switch signal.
[0044]
In addition to the key depression detection circuit 2 and the switch detection circuit 4, the display circuit 5, the tone generator circuit 6, the effect circuit 7, the RAM 9, the ROM 10, the CPU 11, the external storage device 13, and the communication interface 14 are connected to the bus 17.
[0045]
The RAM 9 has a working area for the CPU 11 that stores a flag or a buffer. The ROM 10 stores various parameters or computer programs. The CPU 11 performs calculation or control according to a computer program stored in the ROM 10.
[0046]
The timer 12 is connected to the CPU 11. The CPU 11 can obtain time information from the timer 12. The communication interface 14 is a MIDI interface or other communication network interface.
[0047]
The external storage device 13 includes an interface and is connected to the bus 17 through the interface. The external storage device 13 is, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, or the like.
[0048]
In the external storage device 13 or the ROM 10, a song table (FIG. 6), a keyword table (FIGS. 7A to 7C) necessary for setting performance setting data, and performance setting data (FIG. 8A to FIG. 8) are set. (C)) is stored. Details will be described later.
[0049]
The performance setting data includes performance data such as accompaniment style data (accompaniment pattern data). When performance data is stored in the external storage device 13, the performance data is loaded from the external storage device 13 to the RAM 9, and then the performance data is reproduced.
[0050]
The CPU 11 reads performance data stored in the RAM 9 or the ROM 10 and supplies a musical tone parameter and an effect parameter to the tone generator circuit 6 and the effect circuit 7, respectively. Further, the CPU 11 generates a musical tone parameter and an effect parameter according to a note-on signal generated by the key depression detection circuit 2 and a switch signal generated by the switch detection circuit 4, and the tone generator circuit 6 and the effect circuit 7 respectively. To supply.
[0051]
The tone generator circuit 6 generates a tone signal according to the supplied tone parameter. The effect circuit 7 gives effects such as delay and reverberation to the musical sound signal generated by the tone generator circuit 6 according to the supplied effect parameters, and supplies them to the sound system 8. The sound system 8 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format and generates a sound.
[0052]
The sound source circuit 6 may be of any method such as a waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO + VCF + VCA analog synthesizer method, and the like.
[0053]
Further, the tone generator circuit 6 is not limited to being configured using dedicated hardware, but may be configured using a DSP + microprogram, or may be configured using a CPU + software program.
[0054]
Furthermore, a plurality of tone generation channels may be formed by using one tone generator circuit in a time division manner, or a plurality of tone generation channels may be configured by one tone generator circuit for each tone generation channel. .
[0055]
The computer program and various data can be stored in the hard disk in the HDD without being stored in the ROM 10. By reading the computer program or the like from the hard disk into the RAM 9, the CPU 11 can be operated in the same manner as when the computer program or the like is stored in the ROM 10. In this way, it is possible to easily add or upgrade a computer program or the like.
[0056]
In addition, computer programs and various data can be stored in a CD-ROM. A computer program or the like can be copied from a CD-ROM to a hard disk. New installation and version upgrade of computer programs and the like can be easily performed.
[0057]
The communication interface 14 is connected to a communication network 15 such as a LAN (local area network), the Internet, or a telephone line, and is connected to the server computer 16 via the communication network 15. When a computer program or the like is not stored in the HDD, the computer program or the like can be downloaded from the server computer 16. The electronic musical instrument serving as a client transmits a command requesting download of a computer program or the like to the server computer 16 via the communication interface 14 and the communication network 15. Upon receiving this command, the server computer 16 distributes the requested computer program or the like to the electronic musical instrument via the communication network 15, and the electronic musical instrument receives the computer program or the like via the communication interface 14 to receive the HDD. Downloading is completed by accumulating in the file.
[0058]
FIG. 6 shows the configuration of a music table stored in a RAM or the like. The song table stores song numbers 35, song titles 36, keywords 37, and performance setting data 38 in association with each other. For example, 400 song titles 36 are stored, and each song title 35 corresponds to a song number 35. As the song number 35 increases, the song names are preferably arranged in alphabetical order or in the order of 50 notes.
[0059]
The keyword 37 includes an artist number, a composer number, and a genre number. For example, the song number 1 has a song name of AAAA, an artist number of 35, a composer number of 5, and a genre number of 22. Each number is a keyword identification number. If the keyword 37 is used, the song title can be searched only for a specific keyword.
[0060]
The performance setting data 38 includes a style number, tone color number, tempo value, and harmony number. For example, when song number 1 (song name is AAAA) is selected, the style number is 10, the timbre number is 1, the tempo value is 150, and the harmony number is 2.
[0061]
7A to 7C show the configuration of the keyword table stored in the RAM or the like.
[0062]
FIG. 7A shows the structure of the artist table. The artist table stores an artist number and an artist name in association with each other. The artist number corresponds to the artist number of the keyword 37 in FIG. For example, 80 artist names are stored in the artist table, and the artist number corresponds to each artist name. It is preferable that the artist names are arranged in alphabetical order or alphabetical order according to the artist number.
[0063]
FIG. 7B shows the configuration of the composer table. The composer table stores composer numbers and composer names in association with each other. The composer number corresponds to the composer number of the keyword 37 in FIG. For example, 62 composer names are stored in the composer table. It is preferable that the composer names are arranged in alphabetical order or alphabetical order according to the composer number.
[0064]
FIG. 7C shows the configuration of the genre table. The genre table stores genre numbers and genre names in association with each other. The genre number corresponds to the genre number of the keyword 37 in FIG. The genre name is, for example, rock, pop, dance, enka, etc. The genre number is preferably in the order of genres with high frequency of use or the order in which similar genres are arranged.
[0065]
8A to 8C show the configuration of performance setting data stored in a RAM or the like. FIG. 8A shows the structure of style data. Style data is associated with a style number. The style number corresponds to the style number of the performance setting data 38 in FIG. The style data includes a style name, initial tempo, time signature, number of measures, rhythm pattern, base pattern, and chord (chord) pattern.
[0066]
The initial tempo is different from the tempo value of FIG. The tempo value in FIG. 6 is a tempo value set by selecting a song title by the above method. On the other hand, the initial tempo in FIG. 8A is not a method of selecting a song name, but a tempo that is set when only a style is selected. Therefore, when a song title is selected, the initial tempo is ignored and the tempo value shown in FIG. 6 is adopted.
[0067]
The rhythm pattern, base pattern, and chord pattern include a plurality of sections such as an intro, main, fill-in, and ending.
[0068]
FIG. 8B shows the structure of the timbre data. The timbre data is associated with the timbre number. The timbre number corresponds to the timbre number of the performance setting data 38 in FIG. The timbre data includes a timbre name and a timbre parameter.
[0069]
FIG. 8C shows the structure of harmony data. Harmony data is associated with a harmony number. The harmony number corresponds to the harmony number of the performance setting data 38 in FIG. Harmony number 0 does not have harmony data, and no harmony is added. For example, if you want to perform a piano solo, it is better not to add extra harmony.
[0070]
Those having a harmony number of 1 or more have harmony data and are added with harmony. The harmony data includes a harmony name and harmony parameters. The harmony parameter includes information on how many sounds are added to the melody sound performed by the performer, and information on the sound volume and sounding timing at that time.
[0071]
FIG. 9 is a flowchart that the CPU processes when the abc switch is operated.
[0072]
In step SA1, all music numbers and music names in the music table (FIG. 6) are registered in the sort table. FIG. 10 shows the configuration of the sort table. FIG. 10 shows an example of a sort table when a song number and a song name are registered after performing a keyword search. The contents of the sort table in this step (correspondence between sort order and song number) are as shown in FIG. Does not necessarily match. In the sort table, for example, song numbers and song names of all 400 songs are registered. The sort table stores a sort order, a song number, and a song name in association with each other.
[0073]
When the song names are arranged in alphabetical order or 50-sound order in the song table of FIG. 6, if the abc switch is operated, the sort order and the song number are matched and registered in the sort table. However, if the song names are not arranged in alphabetical order or 50-sound order in the song table of FIG. 6, the song names are registered after being sorted in alphabetical order or 50-sound order. Even if the song names are not arranged in alphabetical order or 50-sound order in the song table of FIG. 6, the song names are arranged in alphabetical order or 50-sound order in the sort table.
[0074]
In step SA2, the song name list is displayed on the display device in the order of the song numbers based on the sort table. The titles are displayed on the display device in alphabetical order or 50-sound order (FIG. 1).
[0075]
In step SA3, the keyword mode flag KWD_MD is set to 0, and the processing of the abc switch ends. When the keyword mode flag KWD_MD is 0, it is a music selection mode, and when it is 1, it is a keyword selection mode.
[0076]
FIG. 11 is a flowchart that the CPU processes when the keyword switch is operated.
[0077]
In step SB1, the keyword list is displayed on the display device based on the keyword table (FIGS. 7A to 7C) corresponding to the operated switch (FIG. 2). When the keyword is an artist or a composer, the keywords are displayed in alphabetical order or 50-sound order.
[0078]
In step SB2, the keyword mode flag KWD_MD is set to 1, and the keyword switch process is terminated. By setting the flag KWD_MD to 1, the keyword selection mode is set.
[0079]
FIG. 12 is a flowchart that the CPU processes when the cursor movement switch is operated.
[0080]
In step SC1, it is checked whether or not the flag KWD_MD is 1. When the flag KWD_MD is 0, the music selection mode is set, and the process proceeds to step SC4.
[0081]
In step SC4, the address pointer of the sort table (FIG. 10) is moved. At the initial stage, as shown in FIG. 10, the address pointer P is located at the head of the table. For example, if the cursor up direction switch is operated, the address pointer is decreased, and if the cursor down direction switch is operated, the address pointer is increased.
[0082]
In step SC5, the cursor is moved on the display screen to the music name indicated by the address pointer of the sort table. Further, scrolling of the screen and display of an arrow 27 indicating that there is a subsequent song are performed as necessary. Thereafter, the cursor movement switch processing is terminated.
[0083]
If it is determined in step SC1 that the flag KWD_MD is 1, it means that the mode is the keyword selection mode, and the process proceeds to step SC2. That is, when the cursor movement switch is operated after the keyword switch is operated, the following processing is performed.
[0084]
In step SC2, the address pointer of the keyword table (FIGS. 7A to 7C) is moved.
[0085]
In step SC3, the cursor on the display screen is moved to the keyword indicated by the address pointer in the keyword table. Further, scrolling of the screen and display of an arrow 27 indicating that there is a continued keyword are performed as necessary. Thereafter, the cursor movement switch processing is terminated.
[0086]
FIG. 13 is a flowchart that the CPU processes when the set switch is operated.
[0087]
In step SD1, it is checked whether or not the flag KWD_MD is 1. When the flag KWD_MD is 1, since it is the keyword selection mode, the process proceeds to step SD2. For example, when the cursor is moved to a desired artist name from the list displayed on the display screen and the set switch is operated, the following processing is performed.
[0088]
In step SD2, the song table (FIG. 6) is searched for a song including the keyword number indicated by the address pointer in the keyword table (FIGS. 7A to 7C). For example, when artist number 1 is selected, a song number and a song name including artist number 1 are searched.
[0089]
In step SD3, all found song numbers and song names are registered in the sort table (FIG. 10). Since only the song number and song name that match the keyword are registered, the song numbers are usually registered in a discontinuous number order as shown in FIG.
[0090]
In step SD4, the songs in the sort table are rearranged in the order of the song numbers. Since the song numbers are arranged in alphabetical order or 50-sound order of the song names, the song names are arranged in alphabetical order or 50-sound order in the sort table.
[0091]
In step SD5, the designated keyword name is displayed on the display screen. For example, as shown in FIG. 3, “Artist: Aaaa” is displayed at the top of the display screen. Then, based on the sort table, the song name list 30 (FIG. 3) is displayed in the order of the song number (that is, alphabetical order or 50-sound order).
[0092]
In step SD6, the flag KWD_MD is set to 0 in order to switch from the keyword selection mode to the music selection mode. Thereafter, the set switch processing is terminated.
[0093]
If it is determined in step SD1 that the flag KWD_MD is 0, it means that the music selection mode is set, and the process proceeds to step SD7. For example, when the cursor is moved to a desired song name from among the song names displayed on the display screen and the set switch is operated, the following processing is performed.
[0094]
In step SD7, performance setting data 38 corresponding to the music number indicated by the address pointer in the sort table is selected and read from the music table (FIG. 6).
[0095]
In step SD8, a performance environment (accompaniment style, tone color, tempo, harmony, etc.) is set based on the read performance setting data.
[0096]
In step SD9, when the user performs an operation for correcting the performance setting data, the performance environment is set based on the corrected performance setting data. When the user is dissatisfied with the performance setting data read from the music table, the performance setting data can be corrected using the numerical value change switch (FIG. 4). Thereafter, the set switch processing is terminated.
[0097]
FIG. 14 shows a configuration example of other style data instead of the style data of FIG.
[0098]
Style data is associated with a style number. The style data includes song data in addition to the style name, initial tempo, time signature, number of measures of the repeating pattern of accompaniment, rhythm pattern, bass pattern, and chord pattern. For example, when there are four songs corresponding to the style number in style number 1, song 1 data, song 2 data, song 3 data, and song 4 data are included.
[0099]
The song data includes a song name, artist number, composer number, genre number, tone color number, tempo value, and harmony number. This enables keyword search based on the artist number, composer number, and genre number. Also, performance setting data such as tone color numbers can be set. Since the style data includes music data, the music table in FIG. 6 is not necessary.
[0100]
If the style data includes music data, the style data can be easily supplemented later. When the style data of FIG. 8A is used instead of the style data of FIG. 14, it is not easy to add new style data. In this case, it is complicated not only to add new style data to the style data of FIG. 8A, but also to register a new style number in the music table of FIG. 6 correspondingly. On the other hand, according to the style data of FIG. 14, it is only necessary to add new style data, and it is not necessary to change other portions, and data creation is easy. Further, the additional style data can be supplied to the user by a floppy disk or the like.
[0101]
FIG. 15 shows a configuration example of other timbre data in place of the timbre data shown in FIG. The timbre data is associated with the timbre number. The timbre data includes song data in addition to the timbre name and timbre parameters. For example, when there are four songs corresponding to the timbre number in the timbre number 1, tune 1 data, tune 2 data, tune 3 data, and tune 4 data are included.
[0102]
The song data includes a song name, artist number, composer number, genre number, style number, tempo value, and harmony number. This makes it possible to search for a keyword based on the artist number and the like, and the music table in FIG. 6 becomes unnecessary. If the timbre data includes music data, the timbre data can be easily supplemented later.
[0103]
FIG. 16 is a flowchart of processing performed by the CPU when the set switch is operated when the style data shown in FIG. 14 or the timbre data shown in FIG. 15 is used.
[0104]
In step SE1, it is checked whether or not the flag KWD_MD is 1. When the flag KWD_MD is 1, since it is the keyword selection mode, the process proceeds to step SE2.
[0105]
In step SE2, the song including the keyword number indicated by the address pointer in the keyword table (FIGS. 7A to 7C) is searched from the style data (FIG. 14) (or timbre data (FIG. 15)).
[0106]
In step SE3, all found song names, style numbers (or tone color numbers) including the song names, and song numbers in the style (or tone color) are registered in the sort table (FIG. 17). As shown in FIG. 17, the sort table is associated with a style number, a song number in the style, and a song name.
[0107]
In step SE4, the music pieces in the sort table are rearranged in alphabetical order or 50-sound order of the music titles.
[0108]
In step SE5, the designated keyword name is displayed on the display screen. Then, the song name list 30 (FIG. 3) is displayed in the order of the song numbers based on the sort table.
[0109]
In step SE6, the flag KWD_MD is set to 0 in order to switch from the keyword selection mode to the music selection mode. Thereafter, the set switch processing is terminated.
[0110]
If it is determined in step SE1 that the flag KWD_MD is 0, it means that the music selection mode is set, and the process proceeds to step SE7.
[0111]
In step SE7, the style number (or timbre number) indicated by the address pointer in the sort table and the performance setting data corresponding to the song number are selected and read out from the style data (FIG. 14) (or timbre data (FIG. 15)). .
[0112]
In step SE8, a performance environment (tone color (or accompaniment style), tempo, harmony, etc.) is set based on the read performance setting data.
[0113]
In step SE9, when the user performs an operation for correcting the performance setting data, the performance environment is set based on the corrected performance setting data. Thereafter, the set switch processing is terminated.
[0114]
The performance setting data selection device according to the present embodiment can easily set performance setting data suitable for the music to be played by selecting the music title itself. So-called song image setting can be performed. In addition, if a song name is searched using the artist, composer, genre, etc. as keywords, the song name can be selected easily and quickly.
[0115]
When the user selects a song name when the song to be played is determined, performance setting data matching the performance song is automatically set. The user does not need to worry about which accompaniment style or the like should be selected.
[0116]
If the user can associate the song with the song name, the user can grasp a fairly specific image, and therefore, the user is unlikely to get lost in selecting the song name. In addition, the performance imagined by the user is likely to match the performance actually performed.
[0117]
Performance setting data includes accompaniment style, tone, etc., chord progression data, intro pattern data, ending pattern data, effect data such as reverb, left chord designation mode (single finger, finger code, full keyboard, etc.) data The volume data of the melody part and accompaniment part can be included. The keyword can include other keywords in addition to the artist name and the like.
[0118]
The performance setting data selection device is not limited to an electronic musical instrument, but may be a personal computer and application software. The application software may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer or may be supplied via a network.
[0119]
Further, the performance setting data selection device is not limited to being built in an electronic musical instrument together with a sound source device, an automatic performance device, etc., but each is a separate device, and each device can be connected using communication means such as MIDI or various networks. It may be something like connecting devices. Furthermore, the present invention can be applied not only to keyboard instruments but also to stringed instrument types, wind instrument types, percussion instrument types, and the like.
[0120]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0121]
【The invention's effect】
As described above, according to the present invention, by specifying a song title, performance setting data suitable for playing a song with that song name can be automatically set. Since the performer can easily associate the performance of the song from the song name, the performance setting data close to the performance associated with the user can be set by designating the song name.
[Brief description of the drawings]
FIG. 1 is a diagram showing a display screen (1) for selecting performance setting data using a performance setting data selection device according to an embodiment of the present invention.
FIG. 2 is a diagram showing a display screen (2) for selecting performance setting data using the performance setting data selection device according to the present embodiment.
FIG. 3 is a diagram showing a display screen (3) for selecting performance setting data using the performance setting data selection device according to the present embodiment.
FIG. 4 is a diagram showing a display screen (4) for selecting performance setting data using the performance setting data selection device according to the present embodiment.
FIG. 5 is a block diagram showing a configuration of a performance setting data selection device according to the present embodiment.
FIG. 6 is a diagram showing a configuration of a music table.
FIG. 7 is a diagram illustrating a configuration of a keyword table. FIG. 7A shows the structure of the artist table, FIG. 7B shows the composer table, and FIG. 7C shows the structure of the genre table.
FIG. 8 is a diagram showing a configuration of performance setting data. 8A shows the structure of style data, FIG. 8B shows the structure of timbre data, and FIG. 8C shows the structure of harmony data.
FIG. 9 is a flowchart of processing performed by a CPU when an abc switch is operated.
FIG. 10 is a diagram illustrating a configuration of a sort table.
FIG. 11 is a flowchart processed by the CPU when a keyword switch is operated.
FIG. 12 is a flowchart of processing performed by a CPU when a cursor movement switch is operated.
FIG. 13 is a flowchart of processing performed by a CPU when a set switch is operated.
FIG. 14 is a diagram illustrating a configuration example of other style data.
FIG. 15 is a diagram showing a configuration example of other timbre data.
FIG. 16 is another flowchart that the CPU processes when the set switch is operated.
FIG. 17 is a diagram showing the configuration of another sort table.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Keyboard, 2 Keyboard detection circuit, 3 Switch, 4 Switch detection circuit, 5 Display circuit, 6 Sound source circuit, 7 Effect circuit, 8 Sound system, 9 RAM, 10 ROM, 11 CPU, 12 Timer, 13 External storage device, 14 Interface, 15 communication network, 16 server computer, 17 bus, 20 display screen, 21 abc switch, 22 keyword switch, 23 cursor movement switch, 24 set switch, 25 numerical value change switch, 26 cursor, 37 keyword data, 38 performance setting data

Claims (6)

電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段と、
ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルと、
ユーザがアーチストまたは作曲者またはジャンルを入力する入力手段と、
前記入力手段によって入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示する表示手段と、
前記表示手段に表示された前記曲名のリストの中からユーザが演奏したい曲の曲名を選択して曲名を指定する指定手段と、
前記指定手段により指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する設定手段と
を有する演奏設定データ選択装置。
Data storage means for storing a plurality of performance setting data used for setting a performance environment for the electronic musical instrument when the user performs a song using the electronic musical instrument;
Music setting data stored in the data storage means suitable for setting a performance environment for the electronic musical instrument when the user performs each music name of a plurality of music played by the user and the music of the music name A table that stores the correspondence between the song name and the artist or composer or genre ,
An input means for the user to enter an artist or composer or genre;
Display means for displaying a list of song names corresponding to the artist or composer or genre based on the table from the artist or composer or genre input by the input means;
A designation means for selecting a song name of a song that the user wants to play from the list of song names displayed on the display means and designating a song name;
A performance setting data selection device comprising: setting means for reading performance setting data corresponding to a song name designated by the designation means from the data storage means based on the table and setting a performance environment for the electronic musical instrument.
電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段と、
ユーザがアーチストまたは作曲者またはジャンルを入力する入力手段と、
前記入力手段によって入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示する表示手段と、
前記表示手段に表示された前記曲名のリストの中からユーザが演奏したい曲の曲名を選択して曲名を指定する指定手段と、
前記指定手段により指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する設定手段と
を有する演奏設定データ選択装置。
A plurality of performance setting data used for setting a performance environment for the electronic musical instrument when a user plays a song using the electronic musical instrument is stored, and the performance setting data is used for each performance setting data. Storage means for associating and storing song names of songs suitable for the user to perform, and storing artists or composers or genres corresponding to the song names ;
An input means for the user to enter an artist or composer or genre;
From the artist or composer or genre input by the input means, display means for displaying a list of song names corresponding to the artist or composer or genre based on the storage means ;
A designation means for selecting a song name of a song that the user wants to play from the list of song names displayed on the display means and designating a song name;
A performance setting data selection device comprising: setting means for reading performance setting data corresponding to a song name designated by the designation means from the storage means and setting a performance environment for the electronic musical instrument.
(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段を準備する工程と、
(b)ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルを準備する工程と、
(c)ユーザにアーチストまたは作曲者またはジャンルを入力させる工程と、
前記工程(c)で入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示工程と、
)前記リスト表示工程で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる工程と、
)前記指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する工程と
を含む演奏設定データ選択方法。
(A) preparing a data storage means for storing a plurality of performance setting data used for setting a performance environment for the electronic musical instrument when the user performs a song using the electronic musical instrument;
(B) Each song name of a plurality of songs played by the user and stored in the data storage means suitable for setting a performance environment for the electronic musical instrument when the user plays the song with the song name. Preparing a table for storing the correspondence between the performance setting data and the correspondence between the song name and the artist or composer or genre ;
(C) letting the user enter an artist or composer or genre;
( D ) a list display step of displaying a list of song names corresponding to the artist or composer or genre based on the table from the artist or composer or genre input in step (c) ;
( E ) causing the user to select a song name of a song to be played from the list of song names displayed in the list display step and designating the song name;
( F ) A performance setting data selection method including a step of reading performance setting data corresponding to the designated music title from the data storage means based on the table and setting a performance environment for the electronic musical instrument.
(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段を準備する工程と、
(b)ユーザにアーチストまたは作曲者またはジャンルを入力させる工程と、
前記工程(b)で入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示工程と、
)前記リスト表示工程で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる工程と、
)前記指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する工程と
を含む演奏設定データ選択方法。
(A) storing a plurality of performance setting data used for setting a performance environment for the electronic musical instrument when the user performs a song using the electronic musical instrument, and further performing the performance setting for each performance setting data; A step of preparing a storage means for storing an artist or a composer or a genre corresponding to the song name, in association with the song name of the song suitable for the user to perform using the data;
(B) letting the user enter an artist or composer or genre;
( C ) a list display step for displaying a list of song names corresponding to the artist, composer or genre based on the storage means from the artist or composer or genre input in the step (b) ;
( D ) causing the user to select a song name of a song to be played from the list of song names displayed in the list display step and designating the song name;
( E ) A performance setting data selection method including a step of reading performance setting data corresponding to the designated music title from the storage means and setting a performance environment for the electronic musical instrument.
(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶するデータ記憶手段を準備する手順と、
(b)ユーザにより演奏される複数の曲の夫々の曲名と該曲名の曲をユーザが演奏する際に前記電子楽器に対して演奏環境を設定するのに適した前記データ記憶手段に記憶される演奏設定データとの対応関係と、前記曲名とアーチストまたは作曲者またはジャンルとの対応関係を記憶するテーブルを準備する手順と、
(c)ユーザにアーチストまたは作曲者またはジャンルを入力させる手順と、
前記手順(c)で入力されたアーチストまたは作曲者またはジャンルから、前記テーブルに基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示手順と、
)前記リスト表示手順で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる手順と、
)前記指定された曲名に対応する演奏設定データを前記テーブルに基づいて前記データ記憶手段から読み出して前記電子楽器に対して演奏環境を設定する手順と
をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(A) a procedure for preparing a data storage means for storing a plurality of performance setting data used for setting a performance environment for the electronic musical instrument when the user performs a song using the electronic musical instrument;
(B) Each song name of a plurality of songs played by the user and stored in the data storage means suitable for setting a performance environment for the electronic musical instrument when the user plays the song with the song name. A procedure for preparing a table for storing the correspondence between the performance setting data and the correspondence between the song name and the artist, composer, or genre ;
(C) allowing the user to enter an artist or composer or genre;
( D ) a list display procedure for displaying a list of song names corresponding to the artist, composer or genre based on the table from the artist or composer or genre input in step (c) ;
( E ) causing the user to select a song name of a song to be played from the list of song names displayed in the list display procedure and designating the song name;
( F ) Recording a program for causing a computer to execute performance setting data corresponding to the designated song name from the data storage means based on the table and setting a performance environment for the electronic musical instrument. Computer-readable recording medium.
(a)電子楽器を用いてユーザが曲を演奏する際に該電子楽器に対して演奏環境を設定するのに用いられる複数の演奏設定データを記憶し、さらに該演奏設定データ毎に該演奏設定データを用いてユーザが演奏するのに適した曲の曲名を対応付けて記憶するとともに、該曲名に対応するアーチストまたは作曲者またはジャンルを記憶する記憶手段を準備する手順と、
(b)ユーザにアーチストまたは作曲者またはジャンルを入力させる手順と、
前記手順(b)で入力されたアーチストまたは作曲者またはジャンルから、前記記憶手段に基づいて、アーチストまたは作曲者またはジャンルに対応する曲名をリスト表示するリスト表示手順と、
)前記リスト表示手順で表示された前記曲名のリストの中からユーザに演奏したい曲の曲名を選択させて曲名を指定させる手順と、
)前記指定された曲名に対応する演奏設定データを前記記憶手段から読み出して前記電子楽器に対して演奏環境を設定する手順と
をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(A) storing a plurality of performance setting data used for setting a performance environment for the electronic musical instrument when the user performs a song using the electronic musical instrument, and further performing the performance setting for each performance setting data; A procedure for preparing a storage means for storing an artist or a composer or a genre corresponding to the song name, as well as storing a song name of a song suitable for the user to perform using the data;
(B) letting the user enter an artist or composer or genre;
( C ) a list display procedure for displaying a list of song names corresponding to the artist, composer or genre based on the storage means from the artist or composer or genre input in the step (b) ;
( D ) causing the user to select a song name of a song to be played from the list of song names displayed in the list display procedure and designating the song name;
( E ) A computer-readable recording that records a program for causing a computer to execute performance setting data corresponding to the designated song name from the storage means and to set a performance environment for the electronic musical instrument. Medium.
JP2002381234A 1996-11-25 2002-12-27 Performance setting data selection device, performance setting data selection method, and recording medium Expired - Lifetime JP3821094B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002381234A JP3821094B2 (en) 1996-11-25 2002-12-27 Performance setting data selection device, performance setting data selection method, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP31403796 1996-11-25
JP8-314037 1996-11-25
JP2002381234A JP3821094B2 (en) 1996-11-25 2002-12-27 Performance setting data selection device, performance setting data selection method, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP29283497A Division JP3419278B2 (en) 1996-11-25 1997-10-24 Performance setting data selection device, performance setting data selection method, and recording medium

Related Child Applications (4)

Application Number Title Priority Date Filing Date
JP2003024558A Division JP3775386B2 (en) 1996-11-25 2003-01-31 Performance setting data selection device, performance setting data selection method, and recording medium
JP2003024559A Division JP3775387B2 (en) 1996-11-25 2003-01-31 Performance setting data selection device, performance setting data selection method, and recording medium
JP2003024560A Division JP3775388B2 (en) 1996-11-25 2003-01-31 Performance setting data selection device, performance setting data selection method, and recording medium
JP2003032410A Division JP3775390B2 (en) 1996-11-25 2003-02-10 Performance setting data selection device, performance setting data selection method, and recording medium

Publications (2)

Publication Number Publication Date
JP2003177752A JP2003177752A (en) 2003-06-27
JP3821094B2 true JP3821094B2 (en) 2006-09-13

Family

ID=26567804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381234A Expired - Lifetime JP3821094B2 (en) 1996-11-25 2002-12-27 Performance setting data selection device, performance setting data selection method, and recording medium

Country Status (1)

Country Link
JP (1) JP3821094B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117432B2 (en) 2013-02-27 2015-08-25 Yamaha Corporation Apparatus and method for detecting chord

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4930390A (en) * 1989-01-19 1990-06-05 Yamaha Corporation Automatic musical performance apparatus having separate level data storage
JP2979101B2 (en) * 1991-04-26 1999-11-15 カシオ計算機株式会社 Automatic performance device
JPH07199977A (en) * 1993-12-29 1995-08-04 Roland Corp Karaoke device
JP3357500B2 (en) * 1995-04-21 2002-12-16 ヤマハ株式会社 Karaoke device with personal information reading function
JP3419278B2 (en) * 1996-11-25 2003-06-23 ヤマハ株式会社 Performance setting data selection device, performance setting data selection method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117432B2 (en) 2013-02-27 2015-08-25 Yamaha Corporation Apparatus and method for detecting chord

Also Published As

Publication number Publication date
JP2003177752A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
US5918303A (en) Performance setting data selecting apparatus
JP3293510B2 (en) Data selection device
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP6733720B2 (en) Performance device, performance program, and performance pattern data generation method
US11955104B2 (en) Accompaniment sound generating device, electronic musical instrument, accompaniment sound generating method and non-transitory computer readable medium storing accompaniment sound generating program
JP3775390B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775386B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3821094B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775388B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775387B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP2016161900A (en) Music data search device and music data search program
JP3487176B2 (en) Performance information creation display device and recording medium therefor
JP2000112472A (en) Automatic music composing device, and recording medium
JP3752859B2 (en) Automatic composer and recording medium
JP4534966B2 (en) Tone setting device and program
JP3807333B2 (en) Melody search device and melody search program
JP5104414B2 (en) Automatic performance device and program
JP3775039B2 (en) Melody generator and recording medium
JP3738634B2 (en) Automatic accompaniment device and recording medium
JPH11161267A (en) Automatic music composing device, and recording medium
JP5387032B2 (en) Electronic music apparatus and program
JP5387031B2 (en) Electronic music apparatus and program
JP2016161901A (en) Music data search device and music data search program
JPH04242794A (en) Electronic music reproducing device
JPH0647999U (en) Karaoke equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20060131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060612

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100630

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110630

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120630

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130630

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140630

Year of fee payment: 8

EXPY Cancellation because of completion of term