JP2858574B2 - Electronic musical instrument - Google Patents

Electronic musical instrument

Info

Publication number
JP2858574B2
JP2858574B2 JP9333963A JP33396397A JP2858574B2 JP 2858574 B2 JP2858574 B2 JP 2858574B2 JP 9333963 A JP9333963 A JP 9333963A JP 33396397 A JP33396397 A JP 33396397A JP 2858574 B2 JP2858574 B2 JP 2858574B2
Authority
JP
Japan
Prior art keywords
data
parameter
voice
tone
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP9333963A
Other languages
Japanese (ja)
Other versions
JPH10161660A (en
Inventor
一郎 大須賀
正宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP9333963A priority Critical patent/JP2858574B2/en
Publication of JPH10161660A publication Critical patent/JPH10161660A/en
Application granted granted Critical
Publication of JP2858574B2 publication Critical patent/JP2858574B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、複数の音色の楽音を
発音可能な電子楽器において、前記複数の音色から所望
の音色を検索する方式の改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic musical instrument capable of producing musical tones of a plurality of timbres, and to an improvement in a system for retrieving a desired timbre from the plurality of timbres.

【0002】[0002]

【従来の技術】現在実用化されている電子楽器のに10
0種類以上の音色の楽音(ボイス)を発音可能なものが
ある。各音色は、その音色に対応する複数のパラメータ
からなる音色データによって形成され、それぞれボイス
ナンバおよびボイスネームと呼ばれる名称が付されてい
る。演奏者はこのボイスナンバまたはボイスネームのい
ずれかを用いてリストを検索し、テンキーなどからボイ
スナンバを入力することによってその音色を指定するこ
とができる。
2. Description of the Related Art 10 to 10 electronic musical instruments currently in practical use.
There is a type that can generate zero or more tones. Each timbre is formed by timbre data including a plurality of parameters corresponding to the timbre, and is given a name called a voice number and a voice name, respectively. The player can search the list using either the voice number or the voice name, and specify the timbre by inputting the voice number from a numeric keypad or the like.

【0003】[0003]

【発明が解決しようとする課題】しかし、音色の種類が
100を越えると、そのすべてについてボイスナンバや
ボイスネームを記憶しておくことは不可能であり、また
リストを検索することも時間がかかる欠点があった。さ
らに、リストなどによってそのボイスネームを知った場
合でも、そのボイスネームで発音される楽音が実際にど
のような音色であるかは実際に発音してみなければ分か
らない欠点があった。
However, if the number of timbres exceeds 100, it is impossible to store voice numbers and voice names for all of them, and it takes time to search the list. There were drawbacks. Furthermore, even if the voice name is known from a list or the like, there is a drawback that the actual tone of the musical tone to be pronounced by the voice name cannot be known unless actually pronounced.

【0004】これを解決するため、複数種類の音色をそ
の特徴によって階層的に分類し、その階層を「管楽器→
木管楽器→サックス」などのように辿っていくことによ
って所望の音色を検索できるようにしたシステムが提案
されているが、検索した結果多くの音色が該当してしま
うと、それ以上は検索する手段がなく、最終的にはそれ
らの音色の楽音をすべて発音させて選択するしか方法が
なくなってしまう欠点があった。
In order to solve this, a plurality of types of timbres are hierarchically classified according to their characteristics, and the hierarchy is referred to as “wind instrument →
A system has been proposed in which a desired timbre can be searched by tracing, for example, "woodwind instrument → saxophone". In the end, there is a disadvantage that there is no other way but to select and select all of the tones of the timbres.

【0005】この発明は、音色データの特徴の程度の範
囲を指定して音色データを検索することにより、また
は、該音色データに含まれるパラメータの値の範囲を指
定することにより、さらには、パラメータの値の範囲お
よびパラメータの特徴の程度の範囲を複数指定すること
により所望の音色をいち早く検索することができるよう
にした電子楽器を提供することを目的とする。
According to the present invention, by searching for tone color data by designating a range of the degree of characteristic of tone color data, or by designating a range of values of parameters included in the tone color data, It is an object of the present invention to provide an electronic musical instrument capable of promptly searching for a desired timbre by designating a plurality of value ranges and characteristic range ranges of parameters.

【0006】[0006]

【課題を解決するための手段】この出願の請求項1の発
明は、複数のパラメータからなるパラメータ群に基づい
て楽音信号を形成する楽音信号形成手段と、パラメータ
群を複数種類記憶するパラメータ記憶手段と、前記パラ
メータ群に含まれるパラメータの値の範囲を指定する指
定手段と、前記指定手段によって指定された範囲のパラ
メータを有するパラメータ群を検索する検索手段と、を
備えたことを特徴とする。
According to the first aspect of the present invention, there is provided a tone signal forming means for forming a tone signal based on a parameter group comprising a plurality of parameters, and a parameter storage means for storing a plurality of types of parameter groups. And specifying means for specifying a range of parameter values included in the parameter group, and searching means for searching for a parameter group having a parameter in the range specified by the specifying means.

【0007】この出願の請求項2の発明は、音色データ
を用いて楽音信号を形成する楽音信号形成手段と、複数
の音色データを記憶する音色データ記憶手段と、各音色
データによって形成される音色の特徴の程度を示すデー
タを各音色データと対応して記憶する特徴記憶手段と、
前記音色の特徴の程度の範囲を指定する指定手段と、前
記指定手段によって指定された音色の特徴の程度の範囲
に該当する音色データを検索する検索手段と、を備えた
ことを特徴とする。
[0007] The invention of claim 2 of this application provides a tone signal forming means for forming a tone signal using tone color data, tone color data storage means for storing a plurality of tone color data, and a tone color formed by each tone color data. Characteristic storage means for storing data indicating the degree of the characteristic of each of the tone color data,
A designation unit for designating a range of the degree of the characteristic of the timbre, and a search unit for retrieving timbre data corresponding to the range of the degree of the characteristic of the timbre designated by the designation unit are provided.

【0008】この出願の請求項3の発明は、複数のパラ
メータからなるパラメータ群に基づいて楽音信号を形成
する楽音信号形成手段と、パラメータ群を複数種類記憶
するパラメータ記憶手段と、各パラメータ群の特徴の程
度を示すデータを各パラメータ群と対応して記憶する特
徴記憶手段と、前記パラメータの値の範囲あるいは(お
よび/または)前記特徴の程度の範囲について複数の検
索条件を指定する指定手段と、前記指定手段によって指
定された複数の検索条件に適合するパラメータ群を検索
する複数の検索手段と、を備えたことを特徴とする。
The invention according to claim 3 of the present application provides a musical tone signal forming means for forming a musical tone signal based on a parameter group consisting of a plurality of parameters, a parameter storing means for storing a plurality of types of parameter groups, Feature storage means for storing data indicating the degree of the feature in association with each parameter group, designating means for designating a plurality of search conditions for the range of parameter values and / or the range of the degree of feature; And a plurality of search means for searching for a parameter group that satisfies a plurality of search conditions specified by the specifying means.

【0009】請求項1の発明では、記憶手段に複数種類
のパラメータ群を記憶し、そのいずれか1つのパラメー
タ群に基づいて楽音信号を形成する。複数のパラメータ
群から1つを選択するとき、指定手段でそのパラメータ
群に含まれるパラメータの値の範囲を指定して検索する
ことができる。検索手段は、指定された範囲の値のパラ
メータを有するパラメータ群を検索する。利用者は、こ
れに基づいてパラメータ群を選択することができ、所望
のパラメータ群で楽音信号を形成することができる。ま
た、エディットモードでこの検索を行うことによって、
その音色のエディットを行うことができる。
According to the first aspect of the invention, a plurality of types of parameter groups are stored in the storage means, and a tone signal is formed based on any one of the parameter groups. When one of a plurality of parameter groups is selected, a search can be performed by specifying a value range of a parameter included in the parameter group by a specifying unit. The search means searches for a parameter group having parameters in a specified range of values. The user can select a parameter group based on this, and can form a tone signal with a desired parameter group. Also, by performing this search in edit mode,
You can edit the tone.

【0010】請求項2の発明では、記憶手段に複数の音
色データを記憶し、いずれか1つの音色データを用いて
楽音信号を形成する。各音色データには、その音色の特
徴の程度を示すデータが対応して記憶されている。特徴
は、たとえば、明るさ,暖かさ,重さなどの音色に対す
る印象を表現するスケールにすればよい。その程度は、
たとえば、フルスケールを10.0として0.0〜1
0.0の小数第1位を含む数値で示すようにするなどの
方式をとることができる。指定手段は、検索すべき音色
データの特徴の範囲を指定する。たとえば特徴の程度が
0.0〜10.0の数値で表現されている場合には、
「4.8〜7.5」などその数値の範囲を指定する手段
で構成すればよい。指定された特徴の程度の範囲に該当
するパラメータ群を検索することにより、目的の音色デ
ータを抽出することができる。この音色データを音源に
送ることにより発音が可能になり、また、エディットモ
ードでこの検索を行うことによって、その音色のエディ
ットを行うことができる。
According to the second aspect of the present invention, a plurality of timbre data are stored in the storage means, and a tone signal is formed using any one of the timbre data. Each tone color data is stored with data indicating the degree of the feature of the tone color. The feature may be, for example, a scale that expresses an impression of a tone such as brightness, warmth, and weight. The extent is
For example, if the full scale is 10.0, 0.0 to 1
For example, it is possible to adopt a method of indicating a numerical value including the first decimal place of 0.0. The designating means designates a range of the feature of the tone color data to be searched. For example, if the degree of the feature is represented by a numerical value from 0.0 to 10.0,
What is necessary is just to comprise the means which designates the range of the numerical value, such as "4.8-7.5". By searching for a parameter group corresponding to the range of the degree of the specified feature, target tone color data can be extracted. By sending the timbre data to the sound source, it becomes possible to generate a sound. By performing this search in the edit mode, the timbre can be edited.

【0011】また、請求項3の発明では、記憶手段に複
数のパラメータ群を記憶し、いずれか1つのパラメータ
群に基づいて楽音信号を形成する。各パラメータ群に
は、そのパラメータ群の特徴の程度を示すデータを対応
して記憶されており、上記パラメータ群の含まれるパラ
メータの値の範囲や上記特徴の程度の範囲を複数指定し
て該当するものを検索する。この指定はパラメータの値
の範囲のみを複数指定してもよく、特徴の程度の範囲を
複数指定してもよく、パラメータの値の範囲と特徴の程
度の範囲を合わせて複数指定してもよい。これにより、
検索されたものが上記複数の検索条件に叶ったパラメー
タ群であり、これを音源に送ることにより発音が可能に
なり、また、エディットモードでこの検索を行うことに
よって、その音色のエディットを行うことができる。
According to the third aspect of the present invention, a plurality of parameter groups are stored in the storage means, and a tone signal is formed based on any one of the parameter groups. For each parameter group, data indicating the degree of the feature of the parameter group is stored in correspondence, and a plurality of parameter value ranges included in the parameter group and a plurality of ranges of the feature level are designated and corresponded. Search for things. In this specification, only a plurality of parameter value ranges may be specified, a plurality of characteristic degree ranges may be specified, or a plurality of parameter value ranges and characteristic degree ranges may be specified. . This allows
The searched group is a parameter group that meets the above-mentioned plurality of search conditions. By sending this to the sound source, pronunciation can be made. By performing this search in edit mode, editing the timbre Can be.

【0012】[0012]

【実施例】図1はこの発明の実施例である電子楽器のブ
ロック図である。この電子楽器は、CPUによって制御
され、鍵盤16によって演奏される電子鍵盤楽器であ
る。楽音信号を形成するための音色データを含むボイス
データはROM,RAMおよび外部メモリのそれぞれに
記憶されている。このうちRAMに記憶されているボイ
スデータはエディット(更新)することができる。
FIG. 1 is a block diagram of an electronic musical instrument according to an embodiment of the present invention. This electronic musical instrument is an electronic keyboard musical instrument controlled by the CPU and played by the keyboard 16. Voice data including tone color data for forming a tone signal is stored in each of the ROM, RAM and external memory. Of these, the voice data stored in the RAM can be edited (updated).

【0013】CPU10は、バス11を介して、ROM
12,RAM13,インタフェース14,18,20、
鍵盤16、パネル操作子17および音源30と接続され
ている。ROM12はプリセットされているボイスデー
タや制御プログラムなどを記憶している。RAM13に
は種々のレジスタが設定されるとともに、エディット可
能なボイスデータが記憶されている。このRAM13内
のボイスデータが記憶されている領域は、電子楽器のメ
イン電源がオフであってもバックアップ電源により、ボ
イスデータが保持されるようになっている。インタフェ
ース14には外部メモリ15が接続されている。外部メ
モリ15はたとえば、フロッピィディスクやメモリカー
ドで構成することができる。フロッピィディスクやRA
Mのメモリカードで構成した場合には、そこに記憶され
ているボイスデータはエディット可能である。鍵盤16
は5オクターブ程度の音域を有する通常の鍵盤である。
パネル操作子17としては図3に示すようにテンキー3
4,ファンクションスイッチ35,モードスイッチ32
およびカーソルキー33が備えられている。インタフェ
ース18にはマウス19が接続されている。マウス19
はCRT21に表示されるカーソルを移動させてパラメ
ータの指定などを行うとき用いられる。インタフェース
20にはCRT21が接続されている。CRT21は指
定されたボイスの各パラメータなどを表示する。音源3
0は波形メモリタイプの音源であり16チャンネル程度
の発音チャンネルを備え、CPU10から入力された演
奏データに基づいて楽音信号を形成する。楽音信号を形
成するためのパラメータ群はあらかじめCPU10から
与えられている。音源30にはサウンドシステム31が
接続されている。音源30が形成した楽音信号はサウン
ドシステム31に入力され、増幅されたのちスピーカな
どから出力される。
The CPU 10 has a ROM 11 via a bus 11
12, RAM 13, interfaces 14, 18, 20,
The keyboard 16, the panel operator 17, and the sound source 30 are connected. The ROM 12 stores preset voice data and control programs. Various registers are set in the RAM 13 and editable voice data is stored. In the area where the voice data is stored in the RAM 13, the voice data is retained by the backup power supply even when the main power supply of the electronic musical instrument is off. An external memory 15 is connected to the interface 14. The external memory 15 can be composed of, for example, a floppy disk or a memory card. Floppy disk or RA
In the case of using a memory card of M, the voice data stored therein can be edited. Keyboard 16
Is a normal keyboard having a range of about 5 octaves.
As shown in FIG.
4, Function switch 35, Mode switch 32
And a cursor key 33. A mouse 19 is connected to the interface 18. Mouse 19
Is used to move a cursor displayed on the CRT 21 to specify a parameter or the like. A CRT 21 is connected to the interface 20. The CRT 21 displays various parameters of the designated voice. Sound source 3
Reference numeral 0 denotes a waveform memory type sound source, which has about 16 sounding channels, and forms tone signals based on performance data input from the CPU 10. A parameter group for forming a tone signal is given from the CPU 10 in advance. A sound system 31 is connected to the sound source 30. The tone signal formed by the sound source 30 is input to the sound system 31, amplified, and output from a speaker or the like.

【0014】図2は前記RAM13などに設定されるボ
イスメモリの構成を示す図である。ROM12,RAM
13および外部メモリ15には、それぞれ所定のエリア
にボイスデータがn個記憶されている。各ボイスデータ
は、ボイスネーム,分類コードおよび呼出データ,音色
データからなっている。分類コードは同図(B)に示す
ようにn個のボイスを大まかな音色(類似する自然楽
器)で分類したコードである。呼出データは図6に示す
ように明暗度データ,冷暖度データ,鋭鈍度データ,重
軽度データおよびユーザデータの5項目についてその程
度を記憶したものである。これらの呼出データは発音さ
れる楽音の特性を楽音の感覚に従ってデータ化したもの
で後述するようにユーザがエディットできるものであ
る。また、音色データは、波形データ,フィルタデー
タ,EGデータ,リバーブなどのイフェクトデータなど
からなっている。音源30はこれらのデータに基づいて
楽音信号を形成する。RAM13にはこのボイスメモリ
の他にバッファメモリが設定されている。このバッファ
メモリは1つのボイスメモリと全く同様の構成を有して
いる。発音時やエディット時に指定されたボイスデータ
はボイスメモリからこのバッファメモリにコピーされ
る。すなわち、発音に用いられるボイスデータはこのバ
ッファメモリのデータであり、エディットはここに記憶
されているデータを書き換える動作である。
FIG. 2 is a diagram showing a configuration of a voice memory set in the RAM 13 or the like. ROM12, RAM
13 and the external memory 15 each store n pieces of voice data in a predetermined area. Each voice data includes a voice name, a classification code and calling data, and tone color data. The classification code is a code in which n voices are classified by rough timbres (similar natural musical instruments) as shown in FIG. As shown in FIG. 6, the calling data stores the degree of brightness, darkness, cooling / heating data, sharpness data, heavy / light data and user data. These call data are obtained by converting the characteristics of the tones to be generated into data in accordance with the sense of the tones, and can be edited by the user as described later. The timbre data includes waveform data, filter data, EG data, and effect data such as reverb. The sound source 30 forms a tone signal based on these data. A buffer memory is set in the RAM 13 in addition to the voice memory. This buffer memory has exactly the same configuration as one voice memory. Voice data specified at the time of sound production or editing is copied from the voice memory to the buffer memory. That is, voice data used for sound generation is data in the buffer memory, and editing is an operation of rewriting data stored therein.

【0015】図3は前記パネル操作子の構成を示す図で
ある。テンキー34はアルファベットキーを兼ねてお
り、ボイスナンバの指定や文字データの入力に用いられ
る。ファンクションスイッチ35は図4〜図7に示すよ
うにCRT21の下部に表示される機能と対応してお
り、表示されている機能を選択するとき用いられる。ま
た、モードスイッチ32はエディットモード,呼出デー
タ設定モード,ボイスサーチモードなどの各種モードを
指定するためのスイッチである。カーソルキー33はC
RT21に表示されているカーソルを移動するためのキ
ーである。
FIG. 3 is a diagram showing the configuration of the panel operator. The numeric keypad 34 also serves as an alphabet key, and is used for designating a voice number and inputting character data. The function switch 35 corresponds to a function displayed below the CRT 21 as shown in FIGS. 4 to 7, and is used when selecting a displayed function. The mode switch 32 is a switch for designating various modes such as an edit mode, a call data setting mode, and a voice search mode. Cursor key 33 is C
A key for moving a cursor displayed on the RT 21.

【0016】図4〜図7のCRT画面表示例および図8
〜図12のフローチャートを参照してこの電子楽器の動
作を説明する。
FIGS. 4 to 7 show examples of CRT screen display and FIGS.
The operation of the electronic musical instrument will be described with reference to the flowcharts of FIGS.

【0017】図8はメインルーチンを示すフローチャー
トである。電子楽器の電源オンと同時に初期設定動作
(n1)を実行する。初期設定動作とはレジスタのリセ
ットや所定のボイスデータを読み出してRAM13内の
バッファメモリに書き込む動作などである。こののち鍵
盤16の鍵オンオフに伴う押鍵処理(n2)を実行し、
パネル操作子17のモードスイッチ32のオンに対応し
てモードスイッチ処理を実行する(n3)。この動作
は、モード設定とバッファメモリに書き込まれたボイス
データをモードに応じた表示でCRT21に画面表示す
るなどの動作である。こののちそのモードに対応対応し
て(n4)、各種処理(n5〜n8)を実行する。すな
わち、エディットモード処理(n5),呼出データ設定
処理(n6),ボイスサーチ処理(n7),その他処理
(n8)などの処理動作を実行し、再び押鍵処理(n
2)に戻り、以下の処理を繰り返し実行する。
FIG. 8 is a flowchart showing a main routine. The initial setting operation (n1) is executed simultaneously with turning on the power of the electronic musical instrument. The initial setting operation includes an operation of resetting a register, an operation of reading predetermined voice data, and writing the read voice data into a buffer memory in the RAM 13. Thereafter, a key pressing process (n2) accompanying the key on / off of the keyboard 16 is executed,
A mode switch process is executed in response to the ON of the mode switch 32 of the panel operator 17 (n3). This operation is, for example, an operation of displaying the screen on the CRT 21 in the mode setting and the display of the voice data written in the buffer memory according to the mode. After that, various processes (n5 to n8) are executed corresponding to the mode (n4). That is, processing operations such as an edit mode process (n5), a call data setting process (n6), a voice search process (n7), and other processes (n8) are executed, and the key pressing process (n
Returning to 2), the following processing is repeatedly executed.

【0018】図9はエディットモード処理ルーチン(n
5)を示すフローチャートである。この動作では、指定
されたボイスデータの各種パラメータを更新する。モー
ドスイッチ32のうちエディットスイッチがオンされ
て、エディットモードであるとこの動作が実行される。
エディットモードでは図4に示すような内容がCRT2
1に表示される。この動作においては、ファンクション
スイッチ(図4の画面下部の読み出し機能表示41,書
き込み機能表示42に対応するF1,F2)のオンイベ
ント(n10)、マウスの操作イベント(n11)また
はテンキーのオンイベント(n12)の有無を判断し、
あった場合にはそれぞれ対応する動作を行う。ファンク
ションスイッチのオンイベントがあった場合には、表示
画面中のファンクションSW機能に対応した処理、すな
わち、ボイスメモリとバッファメモリとの間でボイスデ
ータの読み出し(F1),書き込み(F2)処理を実行
する(n13)。ここで、読み出し動作とは、ボイスメ
モリのボイスデータをバッファメモリに読み出す動作で
ある。詳しくは、ボイスデータの読み出しが指示される
と、画面は図5に示すようにボイスデータを読み出すた
めのウィンドゥが開かれる。ユーザがカーソルをボイス
ナンバに合わせテンキーによってボイスナンバを入力す
ることによって入力されたボイスナンバに対応するボイ
スデータがバッファメモリに読み出される。また、書き
込み動作とはバッファメモリでエディットされたボイス
データをボイスメモリのいずれかのエリアに書き込む動
作である。マウスイベントは通常のパーソナルコンピュ
ータなどと同様に所定の位置にマウスを移動しマウスボ
タンスイッチをクリックする動作である。この操作が行
われたときには、その操作に応じてカーソルを移動し、
クリックされた位置に表示されているパラメータの選択
やその値の変更などの動作を実行する(n14)。たと
えば、EGパラメータやフィルタ特性パラメータの場
合、各ピークに表示されている□をマウスで移動させる
ことによってその特性を変更することができる。また、
テンキーイベントがあった場合にはそのとき指定されて
いるパラメータの値を変更する。(n15)。以上の動
作ののち、行われた操作の内容で表示画面を更新して
(n16)、メインルーチンにもどる。
FIG. 9 shows an edit mode processing routine (n
It is a flowchart which shows 5). In this operation, various parameters of the designated voice data are updated. This operation is executed when the edit switch in the mode switch 32 is turned on and the mode is the edit mode.
In the edit mode, the contents as shown in FIG.
1 is displayed. In this operation, an ON event (n10) of a function switch (F1, F2 corresponding to the reading function display 41 and the writing function display 42 at the bottom of the screen in FIG. 4), a mouse operation event (n11), or a ten key ON event ( n12) is determined, and
If there is, the corresponding operation is performed. If there is an ON event of the function switch, processing corresponding to the function SW function in the display screen, that is, reading (F1) and writing (F2) processing of voice data between the voice memory and the buffer memory is executed. (N13). Here, the read operation is an operation of reading voice data from the voice memory into the buffer memory. Specifically, when reading of voice data is instructed, a window for reading voice data is opened on the screen as shown in FIG. When the user moves the cursor to the voice number and inputs the voice number using the numeric keypad, the voice data corresponding to the input voice number is read out to the buffer memory. The write operation is an operation of writing the voice data edited in the buffer memory to any area of the voice memory. The mouse event is an operation of moving the mouse to a predetermined position and clicking a mouse button switch as in a normal personal computer or the like. When this operation is performed, move the cursor according to the operation,
An operation such as selecting a parameter displayed at the clicked position or changing its value is executed (n14). For example, in the case of an EG parameter or a filter characteristic parameter, the characteristic can be changed by moving the square displayed on each peak with a mouse. Also,
If there is a numeric key event, the value of the parameter specified at that time is changed. (N15). After the above operation, the display screen is updated with the contents of the performed operation (n16), and the process returns to the main routine.

【0019】なお、図8のn6で実行される呼出データ
処理ルーチンもこの図9のエディット処理ルーチンとほ
ぼ同様の処理が行われる。呼出データ設定ルーチンが実
行されるときには図6に示すような画面が表示され、マ
ウスの操作によって、各特徴の程度を指し示すポインタ
43(◆)を移動することができる。これによって、バ
ッファメモリの呼出データ、すなわち、ボイスネーム,
分類コード,明暗度,鋭鈍度,重軽度,ユーザの各デー
タの記憶内容が演奏者によって任意に変更される。な
お、図6の右下のユーザデータは演奏者が任意に名称を
つけることができるデータであり、この図では張緩度が
設定されている。
The call data processing routine executed at n6 in FIG. 8 is also substantially the same as the edit processing routine in FIG. When the call data setting routine is executed, a screen as shown in FIG. 6 is displayed, and the pointer 43 (◆) indicating the degree of each feature can be moved by operating the mouse. Thus, the call data in the buffer memory, that is, the voice name,
The stored contents of the classification code, brightness, sharpness, sharpness, lightness, and user data are arbitrarily changed by the player. The user data at the lower right of FIG. 6 is data to which the performer can arbitrarily name, and in this figure, the degree of tension is set.

【0020】なお、ユーザデータの名称の設定はファン
クションキー(F4)のオンに応じて、画面に「張緩」
「長短」「太細」等の名称メニューを表示してその中よ
りテンキーで選択する。
The name of the user data is set on the screen in accordance with the turning on of the function key (F4).
A name menu such as “long / short” or “thick” is displayed, and a numeric keypad is selected from the menu.

【0021】図10はボイスサーチ処理ルーチンを示す
図である。この動作は設定された呼出データに基づいて
所望のボイスを検索する動作である。この動作が実行さ
れるときには図7の画面が表示される。この画面の下部
には5種類の呼出データが表示されている。各呼出デー
タはそれぞれファンクションスイッチ35のF1〜F5
と対応しており、対応するファンクションスイッチを1
度オンするとそれに対応する呼出データが選択され、も
う1度オンするとその選択が解除される。選択されてい
る呼出データについては、その表示が反転する(明暗デ
ータ,鋭鈍データ)。ファンクションスイッチがオンさ
れると(n20)、そのスイッチに対応する呼出データ
が、現在指定されているかを判断する(n21)。指定
されていない場合にはその呼出データを指定し、ボイス
検索のキーとする(n22)。この動作には、ファンク
ションスイッチに対応する表示を反転する動作や、その
指定されるスケールを画面右側に表示する動作が含まれ
る。また、オンされたファンクションスイッチに対応す
る呼出データがすでに指定されていた場合には対応する
呼出データの指定を解除し表示を消去する(n23)。
次に、マウスの操作に対応してサーチ条件の設定やリス
ト中のボイスの選択などの動作を実行する(n24)。
すなわち、画面右側に表示されている読み出しデータの
指定範囲を、その両端の□を移動させることによって伸
縮し、また指定範囲全体を平行移動させる。さらに、画
面左側には現在指定されている呼出データの範囲に応じ
て行った検索動作によって検索されたボイスネームが表
示されており、マウスでそのうち1つを指定して、該表
示中の指定されたボイスネームの音色データを鍵演奏に
応じて発音する現在の音色データとして選択設定するこ
とができる。
FIG. 10 shows a voice search processing routine. This operation is for searching for a desired voice based on the set call data. When this operation is performed, the screen of FIG. 7 is displayed. At the bottom of this screen, five types of call data are displayed. Each call data is F1-F5 of the function switch 35, respectively.
And the corresponding function switch is 1
When turned on again, the corresponding call data is selected, and when turned on again, the selection is canceled. The display of the selected call data is reversed (light / dark data, sharp / dark data). When the function switch is turned on (n20), it is determined whether the call data corresponding to the switch is currently specified (n21). If not specified, the call data is specified and used as a key for voice search (n22). This operation includes an operation of inverting the display corresponding to the function switch and an operation of displaying the designated scale on the right side of the screen. If the call data corresponding to the turned on function switch has already been designated, the designation of the corresponding call data is canceled and the display is erased (n23).
Next, operations such as setting of search conditions and selection of a voice in the list are executed in response to the operation of the mouse (n24).
That is, the designated range of the read data displayed on the right side of the screen is expanded and contracted by moving the squares at both ends thereof, and the entire designated range is translated in parallel. Further, on the left side of the screen, the voice name searched by the search operation performed according to the range of the currently specified call data is displayed, and one of the voice names is specified with a mouse, and the specified name in the display is displayed. The timbre data of the voice name can be selected and set as the current timbre data to be pronounced according to the key performance.

【0022】テンキーが操作された場合には、現在、頭
文字または分類の設定中であるか否かを判断する(n2
6)。この場合には、頭文字または分類の欄(画面右
上)にカーソルが移動している。その場合には、入力さ
れたキーの内容に応じて頭文字または分類の条件を設定
する(n27)。これ以外の場合にはテンキーの入力イ
ベントは無視する。
When the numeric keypad is operated, it is determined whether or not an initial or a classification is currently being set (n2).
6). In this case, the cursor has moved to the initial or classification column (upper right of the screen). In that case, the initials or classification conditions are set according to the contents of the input key (n27). In other cases, the keypad input event is ignored.

【0023】以上の動作の結果、サーチ条件に変更が生
じたかどうかを判断し(n28)、サーチ条件に変更が
ある場合には自動的にサーチ実行ルーチンを起動する
(n29)。なお、サーチの実行にはサーチ実行キーな
どの別のキーを設けて条件の変更とサーチの実行とを別
の独立した操作で行うようにしてもよい。以上の動作の
のちCRT21の表示を更新して(n30)メインルー
チンにもどる。
As a result of the above operation, it is determined whether or not the search condition has been changed (n28). If the search condition has been changed, the search execution routine is automatically started (n29). It should be noted that another key such as a search execution key may be provided to execute the search, and the condition may be changed and the search may be executed by another independent operation. After the above operation, the display on the CRT 21 is updated (n30) and the process returns to the main routine.

【0024】図11は前記n24で実行されるマウス処
理ルーチンである。この動作はマウスの操作による処理
を制御する動作である。マウススイッチがオンされると
そのときカーソルがあった位置の条件やボイスの選択を
行う(n41)。すなわち、マウススイッチがオンされ
たときカーソルが頭文字または分類条件の設定領域上に
あった場合はその頭文字や分類をテンキーから入力可能
に設定し、カーソルが呼出データ条件領域上にあった場
合はその呼出データの条件の変更を可能にする。さら
に、条件の範囲の両端にカーソルがあった場合にはカー
ソルの移動に連れてその条件の範囲が伸縮し、条件の範
囲の中央部にカーソルがあった場合はカーソルの移動に
連れて同じ幅でその条件の範囲が移動する。また、リス
トのボイス名にカーソルがあったときにはそのボイスの
データをボイスメモリからバッファへコピーする。ま
た、リストの右側のスクロール1の表示体45(図6)
にカーソルがあった場合には、そのポインタの移動に連
れて画面をスクロール可能に設定する。
FIG. 11 shows a mouse processing routine executed in n24. This operation is an operation for controlling processing by mouse operation. When the mouse switch is turned on, the condition and the voice at the position where the cursor was located at that time are selected (n41). That is, when the mouse switch is turned on, if the cursor is on the initial character or the classification condition setting area, the initial character or the classification is set to be enterable from the ten keys, and the cursor is on the call data condition area. Allows changing the condition of the call data. Furthermore, if the cursor is at both ends of the condition range, the range of the condition expands and contracts as the cursor moves, and if the cursor is at the center of the range of the condition, the same width as the cursor moves. Moves the range of the condition. When the cursor is located at the voice name in the list, the data of the voice is copied from the voice memory to the buffer. Also, the display body 45 of the scroll 1 on the right side of the list (FIG. 6)
When the cursor is located on the screen, the screen is set to be scrollable as the pointer moves.

【0025】一方、マウススイッチがオンされたままマ
ウスが移動しているときには、そのとき設定中のサーチ
条件に基づいて動作を実行する(n42,n43)。呼
出データの条件の範囲を設定している場合にはマウスの
座標に応じて呼出データのサーチ条件を変更する(n4
4)。また画面左側のリストにカーソルがある場合には
マウスの座標に応じてカーソルを移動する。さらに、表
示体45にカーソルがあった場合には、そのポインタの
移動につれて画面をスクロールさせる。(n45)。以
上の動作ののち図10のボイスサーチ処理ルーチンにも
どる。
On the other hand, when the mouse is moving while the mouse switch is turned on, the operation is executed based on the search condition set at that time (n42, n43). When the range of the condition of the call data is set, the search condition of the call data is changed according to the coordinates of the mouse (n4).
4). If the cursor is in the list on the left side of the screen, the cursor is moved according to the coordinates of the mouse. Further, when the cursor is on the display 45, the screen is scrolled as the pointer moves. (N45). After the above operation, the process returns to the voice search processing routine of FIG.

【0026】図12はサーチ実行ルーチンを示すフロー
チャートである。ボイスメモリ中のすべてのボイスより
頭文字と分類のサーチ条件によって該当するものを検索
しリストバッファに格納する(n50)。つぎに、呼出
データの条件のうち、未処理のものがあるかどうかを判
断し(n51)、未処理のものがある場合には、そのう
ち1の呼出データ条件に基づき、リストバッファ中のボ
イスデータから検索して(n52)、再び未処理のもの
があるかどうかを判断するためにn51にもどる。この
ようにして、設定されている呼び出し条件(図7の右側
に表示されているもの)のすべてについてこの条件に当
てはまるか否かを検索して行き、当てはまるもののみを
リストバッファに再度格納し、呼出データ条件のうち未
処理のものがなくなったら図10のボイスサーチ処理ル
ーチンにもどる。
FIG. 12 is a flowchart showing a search execution routine. All voices in the voice memory are searched for a corresponding one according to the initial and classification search conditions and stored in the list buffer (n50). Next, it is determined whether there is any unprocessed one of the call data conditions (n51). If there is any unprocessed data, the voice data in the list buffer is determined based on one of the call data conditions. (N52), and returns to n51 to determine whether there is any unprocessed one again. In this way, all the set calling conditions (displayed on the right side of FIG. 7) are searched for whether or not this condition is satisfied, and only the applicable condition is stored again in the list buffer. When there is no unprocessed call data condition, the process returns to the voice search processing routine of FIG.

【0027】たとえば、図7に表示されている内容で検
索したとすると、まず、全てのボイスデータの中からボ
イスネームの頭文字がアルファベットのSからVのもの
が検索され、その中から明暗度の範囲(4.8〜7.
5)に含まれるものが検索され、さらにその中から鋭鈍
度の範囲(0.0〜4.5)に含まれるものが検索さ
れ、リストバッファに格納される。
For example, assuming that the contents displayed in FIG. 7 are searched, first, voice data whose first letter is alphabet S to V is searched from all the voice data, and the brightness of the voice name is searched from among them. Range (4.8-7.
Items included in 5) are searched, and those included in the range of sharpness (0.0 to 4.5) are searched for and stored in the list buffer.

【0028】ここで図7の右側に表示されている呼出デ
ータの条件の範囲を示すグラフと、図6に示している各
ボイスの呼出データのグラフとは対応しており、図6の
◆の位置が図7の□−□の範囲にあるとき、その呼出デ
ータが当てはまると判断される。
Here, the graph indicating the range of the condition of the call data displayed on the right side of FIG. 7 and the graph of the call data of each voice shown in FIG. 6 correspond to each other. When the position is in the range of □-□ in FIG. 7, it is determined that the call data is applicable.

【0029】以上の実施例では、音色データとは別に設
定された呼出データに基づいてボイスを検索するように
しているが、実際の音色データたとえばEGレートなど
に基づいて検索を行うようにしてもよい。
In the above embodiment, the voice is searched based on the call data set separately from the tone data. However, the search may be performed based on the actual tone data such as the EG rate. Good.

【0030】また、音色データおよび呼出データが両方
ともRAM中のエディット可能なデータとして説明した
が、音色データと呼出データの両方あるいは一方がファ
クトリセットされたROMまたはROMカードに格納さ
れていてもよい。
Although both the tone color data and the call data have been described as editable data in the RAM, both or one of the tone color data and the call data may be stored in a factory-set ROM or ROM card. .

【0031】さらに、ユーザ呼出データの名称設定動作
は、メニューからの選択ではなく、アルファベット入
力,かな漢字入力等でできるようにしてもよい。
Further, the operation of setting the name of the user call data may be performed by inputting an alphabet, a kana-kanji, or the like instead of selecting from a menu.

【0032】[0032]

【発明の効果】以上のようにこの発明によればボイスデ
ータの特徴を範囲で指定して検索することができるた
め、そのボイスの特徴をより詳細に記憶しておくことが
でき、また複数の条件を重ねて検索してもいずれかの楽
音が検索される可能性が高いため、所望のボイスを速や
かに検索することが可能になる。
As described above, according to the present invention, a feature of voice data can be specified and searched for in a range, so that the feature of the voice can be stored in more detail. Since there is a high possibility that one of the musical tones will be searched even if the search is repeated under the condition, it is possible to quickly search for a desired voice.

【0033】請求項1の発明によれば、パラメータ群に
含まれるパラメータの値の範囲で検索することができる
ため、パラメータでパラメータ群を検索することがで
き、且つ、範囲による指定を可能にしたことにより厳密
にパラメータの値を知らなくても該当のパラメータ群を
抽出することができる。
According to the first aspect of the present invention, since the search can be performed within the range of the value of the parameter included in the parameter group, the parameter group can be searched by the parameter, and the designation by the range is enabled. Thus, the corresponding parameter group can be extracted without knowing the value of the parameter exactly.

【0034】請求項2の発明によれば音色データをその
特徴の程度の範囲に基づいて検索できるようにしたこと
により、たとえば「少し明るい」、「非常に軽快な」な
どの音色に対する好みで検索することができ、その特徴
の程度を範囲で指定できるようにしたことにより、該当
しそうな音色データを漏れなく抽出することができる。
According to the second aspect of the present invention, the timbre data can be searched based on the range of the degree of the feature, so that the timbre data can be searched according to the preference for the timbre such as "slightly bright" or "very light". Since the degree of the feature can be specified in a range, it is possible to extract timbre data that is likely to be applicable without omission.

【0035】請求項3の発明によれば、パラメータの値
の範囲および/または特徴の程度の範囲を複数していし
てパラメータ群を検索することにより、精度の高い検索
が可能になり、範囲による指定を可能にしたことにより
検索範囲に余裕を持たせることができ、検索条件を増や
してもその条件に叶うパラメータ群を抽出することがで
きる。
According to the third aspect of the present invention, a plurality of parameter value ranges and / or feature degree ranges are searched for a parameter group, thereby enabling a highly accurate search. By allowing specification, it is possible to provide a margin in the search range, and it is possible to extract a parameter group that meets the conditions even if the search conditions are increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例である電子楽器のブロック図FIG. 1 is a block diagram of an electronic musical instrument according to an embodiment of the present invention.

【図2】同電子楽器のボイスメモリの構成を示す図FIG. 2 is a diagram showing a configuration of a voice memory of the electronic musical instrument.

【図3】同電子楽器の操作パネルの構成を示す図FIG. 3 is a diagram showing a configuration of an operation panel of the electronic musical instrument.

【図4】同電子楽器の画面表示の例を示す図FIG. 4 is a diagram showing an example of a screen display of the electronic musical instrument.

【図5】同電子楽器の画面表示の例を示す図FIG. 5 is a view showing an example of a screen display of the electronic musical instrument.

【図6】同電子楽器の画面表示の例を示す図FIG. 6 is a view showing an example of a screen display of the electronic musical instrument.

【図7】同電子楽器の画面表示の例を示す図FIG. 7 is a view showing an example of a screen display of the electronic musical instrument.

【図8】同電子楽器の動作を示すフローチャートFIG. 8 is a flowchart showing the operation of the electronic musical instrument.

【図9】同電子楽器の動作を示すフローチャートFIG. 9 is a flowchart showing the operation of the electronic musical instrument.

【図10】同電子楽器の動作を示すフローチャートFIG. 10 is a flowchart showing the operation of the electronic musical instrument.

【図11】同電子楽器の動作を示すフローチャートFIG. 11 is a flowchart showing the operation of the electronic musical instrument.

【図12】同電子楽器の動作を示すフローチャートFIG. 12 is a flowchart showing the operation of the electronic musical instrument.

【符号の説明】[Explanation of symbols]

12…ROM、13…RAM、15…外部メモリ、17
…パネル操作子、19…マウス、21…CRT、30…
音源、32…モードスイッチ、33…カーソルキー、3
4…テンキー、35…ファンクションスイッチ
12 ROM, 13 RAM, 15 external memory, 17
... panel controls, 19 ... mouse, 21 ... CRT, 30 ...
Sound source, 32 ... mode switch, 33 ... cursor keys, 3
4: Numeric keys, 35: Function switch

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のパラメータからなるパラメータ群
に基づいて楽音信号を形成する楽音信号形成手段と、 パラメータ群を複数種類記憶するパラメータ記憶手段
と、 前記パラメータ群に含まれるパラメータの値の範囲を指
定する指定手段と、 前記指定手段によって指定された範囲のパラメータを有
するパラメータ群を検索する検索手段と、 を備えたことを特徴とする電子楽器。
1. A tone signal forming unit for forming a tone signal based on a parameter group including a plurality of parameters; a parameter storage unit for storing a plurality of types of parameter groups; and a parameter value range included in the parameter group. An electronic musical instrument comprising: a designation unit for designating; and a retrieval unit for retrieving a parameter group having a range of parameters designated by the designation unit.
【請求項2】 音色データを用いて楽音信号を形成する
楽音信号形成手段と、 複数の音色データを記憶する音色データ記憶手段と、 各音色データによって形成される音色の特徴の程度を示
すデータを各音色データと対応して記憶する特徴記憶手
段と、 前記音色の特徴の程度の範囲を指定する指定手段と、 前記指定手段によって指定された音色の特徴の程度の範
囲に該当する音色データを検索する検索手段と、 を備えたことを特徴とする電子楽器。
2. A tone signal forming means for forming a tone signal using tone color data, tone color data storage means for storing a plurality of tone color data, and data indicating the degree of the characteristic of the tone color formed by each tone color data. Feature storage means for storing the tone data in association with each tone data; designation means for designating a range of the degree of the feature of the tone color; searching for tone color data corresponding to the range of the degree of the feature of the tone color designated by the designation means An electronic musical instrument, characterized by comprising:
【請求項3】 複数のパラメータからなるパラメータ群
に基づいて楽音信号を形成する楽音信号形成手段と、 パラメータ群を複数種類記憶するパラメータ記憶手段
と、 各パラメータ群の特徴の程度を示すデータを各パラメー
タ群と対応して記憶する特徴記憶手段と、 前記パラメータの値の範囲あるいは前記特徴の程度の範
囲について、複数の検索条件を指定する指定手段と、 前記指定手段によって指定された複数の検索条件に適合
するパラメータ群を検索する複数の検索手段と、 を備えたことを特徴とする電子楽器。
3. A tone signal forming means for forming a tone signal based on a parameter group consisting of a plurality of parameters; a parameter storage means for storing a plurality of types of parameter groups; and data indicating the degree of characteristics of each parameter group. Feature storage means for storing in association with the parameter group; designating means for designating a plurality of search conditions for the range of the parameter value or the range of the degree of the feature; and a plurality of search conditions designated by the designating means. An electronic musical instrument, comprising: a plurality of search means for searching for a parameter group conforming to
JP9333963A 1997-12-04 1997-12-04 Electronic musical instrument Expired - Fee Related JP2858574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9333963A JP2858574B2 (en) 1997-12-04 1997-12-04 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9333963A JP2858574B2 (en) 1997-12-04 1997-12-04 Electronic musical instrument

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP3198108A Division JP3006923B2 (en) 1991-08-07 1991-08-07 Electronic musical instrument

Publications (2)

Publication Number Publication Date
JPH10161660A JPH10161660A (en) 1998-06-19
JP2858574B2 true JP2858574B2 (en) 1999-02-17

Family

ID=18271953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9333963A Expired - Fee Related JP2858574B2 (en) 1997-12-04 1997-12-04 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2858574B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3577958B2 (en) * 1998-08-03 2004-10-20 ヤマハ株式会社 Music data processing device and control method therefor
JP2001209472A (en) * 1999-11-16 2001-08-03 Megafusion Corp Parameter setting apparatus and contents retrieval system
JP2010282160A (en) * 2009-06-08 2010-12-16 Yamaha Corp Music content processing device and program

Also Published As

Publication number Publication date
JPH10161660A (en) 1998-06-19

Similar Documents

Publication Publication Date Title
JP3006923B2 (en) Electronic musical instrument
JP5369689B2 (en) Information processing apparatus and program
US4696216A (en) Acoustic output device for personal computer
JPH09114453A (en) Display and editing device for music information and playing device capable of display and editing
JP2858574B2 (en) Electronic musical instrument
JP3579927B2 (en) Automatic performance device
JP3497940B2 (en) Electronic musical instrument display
US5756915A (en) Electronic musical instrument having a search function and a replace function
JP2701679B2 (en) Electronic musical instrument
US5274191A (en) Electronic musical instrument using fuzzy interference for controlling musical tone parameters
JP2962075B2 (en) Electronic musical instrument editing device
JP2661487B2 (en) Electronic musical instrument
JPH0225194B2 (en)
JP4305315B2 (en) Automatic performance data characteristic changing device and program thereof
JPH043097A (en) Musical information retrieving device
JP2658780B2 (en) Tone selection device
JP2937028B2 (en) Electronic musical instrument
JPH06138873A (en) Performance information substituting device
JP3835591B2 (en) Musical tone selection apparatus and method
JP2715677B2 (en) Electronic musical instrument
JP2859756B2 (en) Music information processing apparatus and music information processing method
JP3788457B2 (en) Automatic performance device
JPH11109970A (en) Electronic musical instrument
JP2021021871A (en) Musical score editing device and musical score editing program
JP3308726B2 (en) Electronic musical instrument parameter editing device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees