JP7263998B2 - Electronic musical instrument, control method and program - Google Patents
Electronic musical instrument, control method and program Download PDFInfo
- Publication number
- JP7263998B2 JP7263998B2 JP2019173111A JP2019173111A JP7263998B2 JP 7263998 B2 JP7263998 B2 JP 7263998B2 JP 2019173111 A JP2019173111 A JP 2019173111A JP 2019173111 A JP2019173111 A JP 2019173111A JP 7263998 B2 JP7263998 B2 JP 7263998B2
- Authority
- JP
- Japan
- Prior art keywords
- setting
- melody
- data
- automatic accompaniment
- input keyboard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0016—Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Description
本発明は、電子楽器、制御方法およびプログラムに関する。 The present invention relates to an electronic musical instrument, control method and program.
デジタルキーボードをはじめとする電子楽器は、プロセッサおよびメモリを備え、いわば鍵盤付きの組込みコンピュータといえる。音源とスピーカを備える機種では、多様な音色での演奏を単体で楽しむことができる。MIDI(Musical Instrument Digital Interface)規格に対応する機種がほとんどで、なかには自動伴奏機能を備える機種も知られている。 Electronic musical instruments such as digital keyboards are equipped with processors and memories, and can be said to be embedded computers with keyboards. Models equipped with a sound source and speakers allow you to enjoy performances with a variety of tones on their own. Most of the models conform to the MIDI (Musical Instrument Digital Interface) standard, and some models are known to have an automatic accompaniment function.
自動伴奏機能には複数のモードがある。基本的なモードでは、スタートボタンの押下とともにリズムセクションのループ再生が始まり、コードの指定を待ち受ける。この状態から例えばド、ミ、ソが押鍵されると、マシンによりCメジャーコードが解釈され、それに合ったメロディが自動で再生される。別のモードでは、ユーザの演奏するメロディラインにフィットするリズムパターンがマシンにより自動的に選択され、バックで再生される。 The automatic accompaniment function has multiple modes. In basic mode, pressing the start button starts looping the rhythm section and waits for a chord to be specified. In this state, for example, when C major chords are pressed, the machine interprets the C major chord and automatically reproduces a melody matching it. In another mode, a rhythm pattern that fits the melody line played by the user is automatically selected by the machine and played in the background.
電子楽器は、音を電子的に発生させることから、音そのものを操作することが容易である。つまり音に表情をつけやすい。例えばボリュームペダル、ピッチベンダー、あるいはモジュレーションホイール等の演奏操作子を上手に操作すれば、豊かな感情表現が可能である。
しかしながら、これらの演奏操作子を上手に操作することは難しい。
この発明は以上のような背景から生まれたもので、目的は、ユーザがこれらの演奏操作子を上手に操作できなくても、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することにある。
Since an electronic musical instrument generates sound electronically, it is easy to manipulate the sound itself. In other words, it is easy to add expression to the sound. For example, skillful manipulation of performance operators such as volume pedals, pitch benders, and modulation wheels enables rich emotional expressions.
However, it is difficult to skillfully operate these performance controls.
The present invention was born from the background described above, and an object of the present invention is to provide an electronic musical instrument, a control method, and a program capable of realizing a richer performance expression even if the user cannot operate these performance controls well. to provide.
実施形態によれば、電子楽器は、コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し、前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、処理を実行する。 According to the embodiment, the electronic musical instrument sequentially generates accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard, and sets setting data different from the automatic accompaniment pattern, A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. to execute the process.
この発明によれば、より豊かな演奏表現を実現することができる。 According to the present invention, it is possible to realize a richer performance expression.
以下に、図面を参照して本発明の一側面に係る実施の形態を説明する。以下に説明する形態は、あらゆる点において本発明の例示に過ぎず、本発明の範囲を逸脱することなく種々の改良や変形を行うことができる。つまり、本発明を実施する際に、実施形態に応じた具体的構成が適宜採用されてもよい。 Embodiments according to one aspect of the present invention will be described below with reference to the drawings. The embodiments described below are merely examples of the present invention in every respect, and various improvements and modifications can be made without departing from the scope of the present invention. That is, when carrying out the present invention, a specific configuration according to the embodiment may be appropriately employed.
<外観および鍵盤>
図1は、実施形態に係る電子楽器の一例を示す外観図である。実施形態では、電子楽器としてデジタルキーボード100を想定する。デジタルキーボード100は、鍵盤101と、第1のスイッチパネル102と、第2のスイッチパネル103と、LCD(Liquid Crystal Display)104とを備える。
<Appearance and keyboard>
FIG. 1 is an external view showing an example of an electronic musical instrument according to an embodiment. In this embodiment, a
鍵盤101は、複数の鍵の集合である。各鍵は、それぞれ音高を指定するための操作子である。各鍵に発光ダイオードなどを埋め込み、光らせることで演奏ガイドとしての役割を持たせることもできる。
A
鍵盤101は、コード入力鍵盤101aと、コード入力鍵盤101aよりも高音側に設けられるメロディ入力鍵盤101bとを含む。コード入力鍵盤101aは、自動伴奏におけるベースノートやコードを指定するために、左手で押鍵される。メロディ入力鍵盤101bは、メロディを弾くために右手で演奏される。コード入力鍵盤101aとメロディ入力鍵盤101bとの境目であるスプリットポイントは、例えば音高F3の鍵にプリセットされる。スプリットポイントを変更可能な機種もある。
The
第1のスイッチパネル102は、音量の指定、自動演奏のテンポ設定、自動演奏開始等の各種設定を指示するための、ユーザインタフェースである。第2のスイッチパネル103は、各種モードの選択、自動演奏曲の選曲、あるいは音色の選択などを行なうために用いられる。LCD104は、自動伴奏、自動演奏時の歌詞や各種設定情報を表示する表示部として機能する。さらに、デジタルキーボード100は、演奏により生成された楽音を発音するスピーカ(発音部)を裏面部、側面部、又は背面部などに備えても良い。
The
<構成>
図2は、実施形態に係るデジタルキーボード100の制御システム200の一例を示すブロック図である。制御システム200は、RAM(Random Access Memory)203、ROM(Read Only Memory)202、LCD104、LCDコントローラ208、LED(Light Emitthing Diode)コントローラ207、鍵盤101、第1のスイッチパネル102、第2のスイッチパネル103、キースキャナ206、MIDIインタフェース(I/F)215、システムバス209、CPU(Central Processing Unit)201、タイマ210、音源システム300、および、サウンドシステム400を備える。
音源システム300は、例えばDSP(Digital Signal Processor)として実現される音源204と、エフェクター212を備える。サウンドシステム400は、デジタルアナログコンバータ211とアンプ214を備える。
<Configuration>
FIG. 2 is a block diagram showing an example of the
The
CPU201、ROM202、RAM203、音源204、デジタルアナログコンバータ211、キースキャナ206、LEDコントローラ207、LCDコントローラ208、MIDIインタフェース215は、それぞれシステムバス209に接続される。
The
CPU201は、デジタルキーボード100を制御するプロセッサである。すなわちCPU201は、ROM202に記憶されたプログラムを、ワーキングメモリとしてのRAM203に読み出し、実行して、デジタルキーボード100の各種の機能を実現する。CPU201は、タイマ210から供給されるクロックに従って動作する。クロックは、例えば自動演奏、自動伴奏のシーケンスを制御するために用いられる。
A
ROM202は、実施形態に係る処理を実現するプログラム、各種設定データ、自動伴奏データ等を記憶する。自動伴奏データは、予めプリセットされたリズムパターン、コード進行、ベースパターン、あるいはオブリガード等のメロディデータ等を含んでよい。メロディデータは、各音の音高情報、各音の発音タイミング情報等を含んでよい。
A
各音の発音タイミングは、各発音間の間隔時間でもよく、自動演奏曲の開始時からの経過時間であっても良い。時間の単位にはtickが用いられることが多い。tickは、一般的なシーケンサで用いられる、曲のテンポを基準とする単位である。例えば、シーケンサの分解能が480であれば、4分音符の時間の1/480が1tickとなる。 The sounding timing of each sound may be the interval time between soundings or the elapsed time from the start of the automatically played music. A tick is often used as the unit of time. A tick is a unit based on the tempo of a song, which is used in a general sequencer. For example, if the resolution of the sequencer is 480, one tick is 1/480 of the time of a quarter note.
自動伴奏データは、ROM202に限らず、図示しない情報記憶装置や情報記憶媒体に記憶されていても良い。自動伴奏データのフォーマットは、MIDI用のファイルフォーマットに準拠してもよい。
The automatic accompaniment data may be stored not only in the
音源204は、例えばGM(General MIDI)規格に準拠する、いわゆるGM音源である。この種の音源は、MIDIメッセージとしてのプログラムチェンジを与えれば音色を変更できるし、コントロールチェンジを与えれば既定のエフェクトを制御することができる。
The
音源204は、例えば同時に最大256ボイスを発音する能力を有する。音源204は、例えば波形ROM(図示せず)から楽音波形データを読み出し、デジタル楽音波形データとしてエフェクター212に出力する。エフェクター212は、デジタル楽音波形データを加工して様々な効果を付加する。例えば特定の帯域を強調するイコライザや、わずかにずらした音を重ねるコーラス、エコー効果をもたらすディレイなどはその代表的なものである。エフェクトのかかったウェット音、あるいはノーエフェクトのドライ音は、デジタル楽音波形データとしてデジタルアナログコンバータ211に出力される。
デジタルアナログコンバータ211は、デジタル楽音波形データをアナログ楽音波形信号に変換する。アナログ楽音波形信号は、アンプ214で増幅され、図示しないスピーカ又は出力端子から出力される。
A digital-to-
エフェクター212によらず、音源204をMIDIメッセージで制御してエフェクトを得ることもできる。例えばポルタメントは、MIDIメッセージとしてのコントロールチェンジによりオン/オフ、および0~127の刻みでかかり具合(ポルタメントタイム)を指定できる。リバーブ、トレモロ、コーラス、およびセレステ等の各種エフェクトもMIDIに策定されている。ブライトネス、モジュレーションなどの効果もコントロールチェンジで制御することができる。さらに、ピッチベンダーやモジュレーションホイールを操作して得られる効果も、コントロールチェンジで制御することができる。
Effects can also be obtained by controlling the
キースキャナ206は、鍵盤101の押鍵/離鍵状態、第1のスイッチパネル102、及び第2のスイッチパネル103のスイッチ操作状態を定常的に監視する。そして、キースキャナ206は、鍵盤101、第1のスイッチパネル102、及び第2のスイッチパネル103の状態をCPU201に伝える。
The
LEDコントローラ207は、例えばIC(Integated Circuit)である。LEDコントローラ207は、CPU201からの指示により鍵盤101の鍵を光らせて、演奏者の演奏をナビゲートする。LCDコントローラ208は、LCD104の表示状態を制御するICである。
The
MIDIインタフェース215は、MIDI装置4等の外部装置からのMIDIメッセージ(演奏データ等)を入力したり、MIDIメッセージを外部装置に出力したりする。デジタルキーボード100は、例えばUSB(Universal Serial Bus)等のインタフェースを用いて、外部装置とMIDIメッセージやMIDIデータファイルを授受することが可能である。受信されたMIDIメッセージは、CPU201経由で音源204に渡される。音源204は、MIDIメッセージで指定された音色、音量、タイミング等に従って音を鳴らす。
The
リムーバブルメディアとしての記憶装置3が、例えばUSB経由でシステムバス209に接続されても良い。記憶装置3としては、例えば、USBメモリ、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD-ROMドライブ及び光磁気ディスク(MO)ドライブ等が挙げられる。ROM202にプログラムが記憶されていない場合には、記憶装置3にプログラムを記憶させておき、それをRAM203に読み込むことにより、ROM202にプログラムを記憶している場合と同様の動作をCPU201に実行させることができる。
A
図3は、実施形態に係わるCPU201の処理機能、およびROM202に記憶される内容の一例を示す機能ブロック図である。
FIG. 3 is a functional block diagram showing an example of processing functions of the
ROM202は、CPU201の処理機能を実現するプログラム500に加えて、自動伴奏データa1~an、および設定データb1~bmを記憶する。自動伴奏データa1~anは、各パートごとに予め作成された様々な自動伴奏パターンを表現する、例えばMIDIデータの集合である。図4Aに示される伴奏パターンに対応する自動伴奏データは、例えば図4Bに示される内容となる。
The
<自動伴奏データについて>
図4Aは、1小節の中で2分音符のCメジャーコードを2回鳴らす、という自動伴奏パターンを示す。この自動伴奏パターンは、図4Bに示されるように記譜上でのタイミングを示す数値、ノート情報(音名と音高)を示す記号、ベロシティおよび音長を示す数値で表現することができる。音長の単位は例えばtickである。1拍あたりのtick数は96に設定することが多い。この場合、8分音符の音長は48tick、2分音符の音調は192tickでカウントされる。図4Bにおいては160tickであるので、2分音符の最大音長よりもやや短い音長で発音されることがわかる。
<About automatic accompaniment data>
FIG. 4A shows an automatic accompaniment pattern in which a half note C major chord is sounded twice in one bar. This automatic accompaniment pattern can be represented by numerical values indicating notated timing, symbols indicating note information (pitch name and pitch), and numerical values indicating velocity and duration, as shown in FIG. 4B. The unit of sound length is tick, for example. The number of ticks per beat is often set to 96. In this case, the tone length of an eighth note is counted by 48 ticks, and the tone of a half note is counted by 192 ticks. Since it is 160 ticks in FIG. 4B, it can be seen that the tone length is slightly shorter than the maximum tone length of the half note.
図5Aは、Cメジャーコードへのオブリ(オブリガード)パートの一例で、コードトーンによる8分音符での往復を示す自動伴奏パターンである。この自動伴奏パターンについては、例えば図5Bに示されるように、各音のタイミング、ノート情報、ベロシティ、および音長が設定される。音長は40tickであり、8分音符の最大音長よりもやや短く設定されていることがわかる。 FIG. 5A is an example of an obligate part to a C major chord, which is an automatic accompaniment pattern showing a round trip of eighth notes by chord tones. For this automatic accompaniment pattern, the timing, note information, velocity, and length of each note are set as shown in FIG. 5B, for example. It can be seen that the tone length is 40 ticks, which is set slightly shorter than the maximum tone length of an eighth note.
<CPU201の機能について>
CPU201は、実施形態に係わる処理機能として、コード検出部201a、伴奏制御部201b、および、設定反映部201cを具備する。これらの機能は、プログラム500により実現される。
<Functions of
The
コード検出部201aは、第1ユーザ操作に基づいて、複数の自動伴奏パターンのなかから発音させる自動伴奏パターンを決定する。ここで、第1ユーザ操作は、例えばコード入力鍵盤101aへの操作(演奏)である。コード入力鍵盤101aの出力データは、コード検出部201aに渡される。なお、メロディ入力鍵盤101bへの操作(演奏)を、第2ユーザ操作の一例とする。メロディー演奏鍵盤の101bの出力データは、設定反映部201cに渡される。
The
伴奏制御部201bは、コード検出部201aにより決定された自動伴奏パターンに応じた伴奏音の発音を、音源204、または音源システム300に指示する。すなわち伴奏制御部201bは、コード入力鍵盤101aのいずれかの鍵が押鍵されると、当該鍵に対応付けられた音名(ノートナンバー)に基づいて、ルート値と、コードタイプ値と、を決定する。ここで、ルート値とはC=ドからB=シまでの12段階の音名値であり、コードタイプ値とは、コードの種類に対応づけられた数値データである。ちなみにコードの種類には、例えばM(Major),m(minor),dim,aug,sus4,sus2,7th,m7,M7,m7♭5,7♭5,7sus4,add9,madd9,mM7,dim7,69,6th,m6等がある。
The
そして伴奏制御部201bは、決定されたルート値およびコードタイプ値に基づいてコードネームを特定する。さらに伴奏制御部201bは、この特定されたコードネームに基づいて、発音すべき自動伴奏パターンを複数の自動伴奏パターンのなかから決定し、対応する自動伴奏データをROM202から読み出す。
The
また伴奏制御部201bは、読み出した自動伴奏データと、コード検出部201aから渡されたコードタイプ値とに応じて伴奏を生成し、音源システム300に渡す。音源システム300は、伴奏制御部201bの生成した伴奏をパート毎のオーディオデータに変換し、サウンドシステム400に出力する。
The
設定反映部201cは、メロディ入力鍵盤101bで押鍵して指定された音高の楽音に、コード検出部201aにより決定された自動伴奏パターンに対応する設定データに基づく設定を反映させる。つまり設定反映部201cは、メロディ入力鍵盤101bで演奏されるフレーズに、選択された設定データを反映するための、例えばMIDIメッセージを作成する。設定反映部201cは、このMIDIメッセージを音源システム300に与えて、右手での演奏に効果を付加する。あるいは、メロディ入力鍵盤101bの押鍵に応じて作成される例えばMIDIメッセージに、選択された設定データに応じた各種設定を反映させてもよい。あるいは、メロディ入力鍵盤101bの押鍵、非押鍵に関わらず、予め設定されているタイミングに選択された設定データに応じた例えばMIDIメッセージを作成してもよい。
The setting
ところで、伴奏制御部201bは、コード検出部201aにより検出されたコードに基づいて自動伴奏パターンのノート情報を変更することで、適切な伴奏を生成する。
Incidentally, the
<伴奏の生成について>
図6は、伴奏制御部201bによる処理手順の一例を示すフローチャートである。伴奏制御部201bは、ドラムパート以外のパートについて、自動伴奏データのノート情報(音高)をバックのコードに応じて変更する。ドラムパートについては、発音される音の性質上、変更の必要は無いとみなされる。
<Generation of accompaniment>
FIG. 6 is a flow chart showing an example of a processing procedure by the
図6において伴奏が開始されると、伴奏制御部201bは、自動伴奏データがドラムパートでなければ(ステップS1でNo)、当該自動伴奏データのノート情報を、コード検出部201aにより検出されたコードデータ(コードネーム)に対応付けて変更する(ステップS2)。図7に示されるように、伴奏制御部201bは、コード検出部201aにより検出されたコードがFメジャーであれば、Cメジャーコード用の自動伴奏パターン(図5A、図5B)のノート情報をそれぞれ4度上に変更する。これにより自動伴奏されるメロディは、図8に示されるように変更される。
When the accompaniment is started in FIG. 6, if the automatic accompaniment data is not a drum part (No in step S1), the
<設定データについて>
図9は、ROM202(図3)に記憶される設定データの一例を示す図である。設定データの一例として、当業者には[エモーショナルデータ]と称されるデータがある。図9に示されるように、設定データは[タイミング]に[効果付加データ]を対応付けて、少なくともユーザによる演奏よりも前に作成されて、予めROM202に記憶される。[タイミング]は、[小節:拍:tick]で示される時間データであり、自動伴奏パターンの再生開始タイミングから再生終了タイミングまでの間の少なくともいずれかのタイミングに対応付けられる。なお図9においては、1小節目と2小節目のデータを示す。
演奏される音に音響効果を付加するための[効果付加データ]が、例えばタイミングに対応付けて設定される。ブライトネスに係わる設定データb1を例に採り説明する。
<About setting data>
FIG. 9 is a diagram showing an example of setting data stored in the ROM 202 (FIG. 3). An example of setting data is data called "emotional data" by those skilled in the art. As shown in FIG. 9, the setting data associates the [timing] with the [additional effect data], is created at least before the performance by the user, and is stored in the
[Effect addition data] for adding acoustic effects to the sound to be played is set in association with, for example, timing. The setting data b1 related to brightness will be described as an example.
図10に示されるように、ブライトネスは倍音成分の利得を制御することで、音に「きらめき」や「明るさ」といった効果をもたらす。例えば1kHz~2kHz付近の帯域を境界として倍音成分のゲインを上げると、音が明るくなる効果を得られる。ゲインを下げれば、音は丸くなるといわれる。 As shown in FIG. 10, brightness controls the gain of overtone components to produce effects such as "shimmer" and "brightness" in the sound. For example, if the gain of the overtone component is increased with the band around 1 kHz to 2 kHz as the boundary, the effect of brightening the sound can be obtained. It is said that lowering the gain makes the sound rounder.
技術的には-12dB~+12dBの範囲でゲインを制御できれば十分で、例えばこれを8ビット、256階調で-127~+127の範囲で表す数値を、ブライトネスに係わる効果付加データとする。効果付加データがプラスならば、プラス値に応じて倍音のゲインが上げられ、高域が強調される。効果付加データがマイナスならば、マイナス値に応じて倍音のゲインが下げられ、高域が抑圧される。 Technically, it is sufficient to be able to control the gain in the range of -12 dB to +12 dB. For example, numerical values expressed in the range of -127 to +127 with 8 bits and 256 gradations are used as effect added data related to brightness. If the effect addition data is positive, the gain of harmonic overtones is increased according to the positive value to emphasize the high frequencies. If the effect added data is negative, the gain of harmonic overtones is lowered according to the negative value, and the high frequencies are suppressed.
図9によれば、例えば1小節目の1拍目では、0というデータが取り出され、1小節目の4拍目では、+100というデータが取り出される。また、1小節目の4拍目で押鍵すると、効果付加データが-24なので、設定反映部201cは、MIDIメッセージにそのことを記載して音源204に指示する。これによりそのタイミングでの発音の音色の高周波数成分が下がり、甘い音になる。また、2小節目の4拍目では、効果付加データは+100なので、設定反映部201cは、MIDIメッセージ(コントロールチェンジ)にそのことを記載して音源204に指示する。これによりそのタイミングでの発音の音色の高周波成分が上がり、キラキラした音になる。
According to FIG. 9, for example,
図11は、実施形態に係わる伴奏発音処理の手順の一例を示すフローチャートである。このフローチャートを実行する命令を含むプログラムは、自動伴奏の再生開始から終了に至るまでのループにおいて、例えば既定の割り込みタイミングの到来ごとに呼び出され、CPU201により実行される。
FIG. 11 is a flow chart showing an example of the procedure of accompaniment sound production processing according to the embodiment. A program including instructions for executing this flow chart is called and executed by the
図11において、コード検出部201aは、コード入力鍵盤101aの押鍵を待ち受け(ステップS11)、設定反映部201cは、メロディー演奏鍵盤の101bの押鍵を待ち受ける(ステップS15)。
コード入力鍵盤101aが押鍵されると(ステップS11でYes)、コード検出部201aは、押鍵された健の音高情報(ノート情報)とベロシティ情報とを取得する(ステップS12)。音高情報およびベロシティ情報に対応するコードが検出されれば(ステップS13)、コード検出部201aは、コードのルート値およびコードタイプ値を伴奏制御部201bに渡し(ステップS14)、呼び出し元に戻る(RETURN)。
In FIG. 11, the
When the
一方、メロディー演奏鍵盤の101bの押鍵が検出されると(ステップS15でYes)、設定反映部201cは、音高情報とベロシティ情報とを取得する(ステップS16)。そして、その時点でのタイミングにおいて効果付加データが定義されており、伴奏制御部201bから効果付加データを取得することができれば(ステップS17でYes)、設定反映部201cは、音高情報、ベロシティ情報、および効果付加データに基づく発音を音源204に指示する(ステップS18)。
On the other hand, when the depression of the
これにより、右手で演奏された音に、当該時点における演奏状態を反映する効果が自動的に付与される。例えば、自動伴奏ループの終盤で盛り上げたい場面であれば、ブライトネスの数値を高めて高域を強調した音を出し、聴衆の気分を盛り上げるといった効果を期待できる。 As a result, the sound played with the right hand is automatically given an effect that reflects the playing state at that point in time. For example, if you want to liven up the scene at the end of an auto-accompaniment loop, you can expect the effect of increasing the brightness value to produce a sound that emphasizes the high frequencies, thereby raising the mood of the audience.
なお、ステップS17の時点でのタイミングにおいて効果付加データが定義されていなければ(ステップS17でNo)、設定反映部201cは、音高情報およびベロシティ情報に基づく発音を音源204に指示する(ステップS19)。これにより、素のままの音が出力されることになる。
Note that if no additional effect data is defined at the timing of step S17 (No in step S17), the
以上述べたように実施形態では、音に効果を付与する設定データが予めROM202に記憶されている。そして、コード入力鍵盤101aにより操作される自動伴奏の再生ループの中で、自動伴奏の再生状態に応じた設定データを取得し、ユーザによるメロディー演奏鍵盤の101bの演奏で発せられる音に、取得された設定データを反映させるようにした。これにより、自動伴奏の状態によって、右手演奏の音色や演奏状態を自動的に変化させることが可能になる。
As described above, in the embodiment, setting data for imparting effects to sounds is stored in the
既存の電子鍵盤楽器では、自動伴奏の再生状態によらず、右手での演奏による発音は変化しなかった。もともと鍵盤楽器は、サックスやギター等の生楽器に比べて演奏の表現が少ないことは否めず、サンプリングキーボード等でサックスの音を弾くと単調な音になっていた。 In the existing electronic keyboard instruments, the pronunciation by playing with the right hand did not change regardless of the playback state of the automatic accompaniment. It is undeniable that keyboard instruments have less expressive performance than acoustic instruments such as saxophones and guitars, and playing a saxophone on a sampling keyboard or the like produces a monotonous sound.
ピアノやオルガンなどの鍵盤楽器は、その構造上、音を揺らすことが難しい。このため、演奏者には工夫が求められる。一方、ギターなどの弦楽器では、演奏者がノッてくるにつれ指板を抑える指に力がこもり、ピッチが甘くなることが知られている。さらには、ブラスセクションの楽器にも特有の発音機構がある。電子鍵盤楽器でこのような効果をシミュレートするにはボリュームペダルを細かく操作したり、モジュレーションホイールをジャストタイムで頻繁に操作するなど、演奏者は非常に面倒な操作を強いられていた。 Due to the structure of keyboard instruments such as pianos and organs, it is difficult to modulate the sound. For this reason, the performer is required to devise a method. On the other hand, it is known that in a stringed instrument such as a guitar, as the player strikes, the fingers holding the fingerboard become more forceful, resulting in a sweeter pitch. Furthermore, brass section instruments also have their own unique sounding mechanisms. In order to simulate such an effect with an electronic keyboard instrument, the performer was forced to perform extremely troublesome operations, such as operating the volume pedal in detail or operating the modulation wheel frequently at just the right time.
これに対し実施形態によれば、自動伴奏に応じた効果が、演奏音に自動的に付加される。つまりユーザの演奏するメロディに、伴奏に合う効果(エフェクト)を簡単に付けることができる。このように、自動伴奏の状態に応じて右手演奏の音色や演奏状態を変化させることで、例えば、自動伴奏が激しい演奏になっている時に右手演奏の音色も変化させ、豊かな演奏表現を実現することができる。これらのことから実施形態によれば、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することができる。 On the other hand, according to the embodiment, an effect corresponding to the automatic accompaniment is automatically added to the performance sound. In other words, effects that match the accompaniment can be easily added to the melody played by the user. In this way, by changing the timbre and performance state of the right-hand performance according to the state of the automatic accompaniment, for example, when the automatic accompaniment is playing intensely, the timbre of the right-hand performance also changes, realizing a rich performance expression. can do. For these reasons, according to the embodiments, it is possible to provide an electronic musical instrument, a control method, and a program capable of realizing rich performance expression.
[第1の変形例]
上記実施形態では、ブライトネスを設定データ(エモーショナルデータ)の活用例として説明した。第1の変形例では、設定データでポルタメントを制御することについて説明する。
図12は、ポルタメントについて説明するための図である。ポルタメントとは、音の高さが変化する速度を表す指標であり、いわゆるグリッサンド奏法とは区別して以下に説明する。ポルタメントは、パラメータとしてのポルタメントタイムを指定することでかかり具合を調節できる。ポルタメントタイムは、鳴っている音の高さが、第1の音高から第2の音高に連続的に変化する速度を示す指標である。つまり、押鍵されてからその鍵に対応する音高の音が発音されるまでに、前の音の音高からの変化に要する時間が、ポルタメントタイムである。
[First modification]
In the above embodiment, brightness is described as an example of utilization of setting data (emotional data). In the first modified example, controlling portamento with setting data will be described.
FIG. 12 is a diagram for explaining portamento. Portamento is an index representing the speed at which the pitch of a sound changes, and will be described below separately from the so-called glissando rendition. Portamento can be adjusted by specifying the portamento time as a parameter. The portamento time is an index that indicates the speed at which the pitch of a sounded note changes continuously from the first pitch to the second pitch. In other words, the portamento time is the time required for the pitch of the previous sound to change from when the key is pressed until the sound of the pitch corresponding to that key is produced.
図12(a)の設定ではポルタメントタイムが短く(ポルタメントタイム=5)、例えばC鍵が押された時(C鍵が押鍵されたタイミングを一点鎖線で示す)、直前のGから急速にC音の発音に至る。このような設定は、チェンバロや琴などの撥弦楽器の音を表現するのに向いている。 In the setting of FIG. 12(a), when the portamento time is short (portamento time=5), for example, when the C key is pressed (the timing at which the C key is pressed is indicated by the one-dot chain line), the previous G changes rapidly to C. leading to the pronunciation of sounds. Such settings are suitable for expressing the sound of plucked string instruments such as harpsichords and kotos.
図12(b)の設定ではポルタメントタイムが比較的長く(ポルタメントタイム=95)、G音からC音への変化は緩やかである。このような設定は、例えばギターのチョーキング奏法や音のピッチの変化を表現するのに向いている。特に、アコースティック楽器では、演奏が盛り上がると音のピッチが甘くなる(暴れる)ことがある。第1の変形例によれば、ポルタメントタイムを変更することで、そのような演奏状態を自動的にシミュレートすることができる。 In the setting of FIG. 12(b), the portamento time is relatively long (portamento time=95), and the change from G note to C note is gradual. Such a setting is suitable, for example, for expressing a choking style of playing a guitar or changing the pitch of a sound. In particular, with acoustic instruments, the pitch of the sound may become sweet (violent) when the performance becomes lively. According to the first modification, such a performance state can be automatically simulated by changing the portamento time.
図13は、ROM202に記憶される設定データの他の例を示す図である。図9のブライトネスと同様に、例えば0~127の範囲で設定可能なポルタメントタイムが、効果付加データとして、タイミングに対応付けて設定される。1小節目の後半でポルタメントタイムを伸ばして盛り上げ、2小節目の後半でポルタメントタイムをさらに伸ばして大きく盛り上げようとする、作曲者の意図が伺える。
FIG. 13 is a diagram showing another example of setting data stored in the
このように第1の変形例では、自動伴奏の状態とともにポルタメントを自動的に変えられるので、例えば演奏者のノリを簡単に表現することができる。 As described above, in the first modification, the portamento can be automatically changed along with the state of the automatic accompaniment, so that, for example, the rhythm of the performer can be easily expressed.
[第2の変形例]
以上の説明では、設定データとして、楽音に音響効果を付加するための効果付加データを例に採り説明した。第2の変形例では、設定されている第1音色を第2音色に変更するための音色変更データを、設定データの一例として説明する。音色変更データは、例えばMIDIメッセージに含まれるプログラムナンバー(音色番号)である。音色の変更を指示するには、音色変更のためのプログラムチェンジを音源204に与えればよい。ここでは、音色としてサックスを想定する。
[Second modification]
In the above explanation, the effect adding data for adding acoustic effects to musical tones has been taken as an example of the setting data. In the second modification, timbre change data for changing the set first timbre to the second timbre will be described as an example of setting data. The timbre change data is, for example, a program number (timbre number) included in a MIDI message. In order to instruct the change of timbre, a program change for changing the timbre should be given to the
図14は、ROM202に記憶される設定データの他の例を示す図である。レガート、通常、およびブローの3通りの音色変化が、タイミングごとに、効果付加データとして設定される。各小節の前半ではレガート演奏で穏やかに、後半では徐々にテンションを上げ、2小節目の後半でブロー奏法により大きく盛り上げようとする、作曲者の意図が伺える。
FIG. 14 is a diagram showing another example of setting data stored in the
[第3の変形例]
第3の変形例では、メロディ入力鍵盤101bの演奏により指定される第1音量を第2音量に変更するための音量変更データを、設定データの一例として説明する。
[Third Modification]
In the third modification, volume change data for changing the first volume specified by playing the
図15は、ROM202に記憶される設定データの他の例を示す図である。ここでは、検出されたベロシティをさらに微調整するための数値が、タイミングごとに、効果付加データとして設定される。1小節目の後半では演奏者の押鍵よりも大きな音で鳴らし、次に抑えめにして、2小節目の後半でより大きな音で盛り上げようとする、作曲者の意図が伺える。
FIG. 15 is a diagram showing another example of setting data stored in the
[第4の変形例]
第4の変形例では、メロディ入力鍵盤101bの演奏により指定される第1音高を第2音高に変更するための音高変更データを、設定データの一例として説明する。音高を変更するには、音源204にプログラムチェンジを送ればよい。
[Fourth Modification]
In the fourth modification, pitch change data for changing the first pitch specified by playing the
図16は、ROM202に記憶される設定データの他の例を示す図である。例えば協和音程である完全5度上の音を付加するための数値が、タイミングごとに、効果付加データとして設定される。パイプオルガンのストップ(音栓)にはこの種の効果を狙ったものが知られており、演奏された音と5度上の音とをミックスすることで独特の効果を醸し出すことができる。もちろん、3度上、4度上、6度下の音などを発音させることもできる。
FIG. 16 is a diagram showing another example of setting data stored in the
[第5の変形例]
第5の変形例では、エフェクトデータ(パラメータ)を変更するためのコントロールチェンジデータを、設定データの一例として説明する。
[Fifth Modification]
In the fifth modification, control change data for changing effect data (parameters) will be described as an example of setting data.
図17は、ROM202に記憶される設定データの他の例を示す図である。ディレイタイムは、エフェクター212(図2)に含まれるディジタルディレイのパラメータの一つである。ここでは、ディレイタイムを指定するための数値が、タイミングごとに、効果付加データとして設定される。各小節の後半で短めのディレイ(ショートディレイ)をかけ、2小節目では1小節目よりも長いディレイで盛り上げようとする、作曲者の意図が伺える。なお、ディレイにはもう一つのパラメータとしてフィードバックがある。これも同様に、効果付加データとして数値で指定することができる。
FIG. 17 is a diagram showing another example of setting data stored in the
[第6の変形例]
第6の変形例では、検出されたコードに応じて設定データを変更することについて説明する。つまり効果付加データは、上記で説明したようにタイミングではなく、コード種に対して設定される。ここでは、コード種に応じてブライトネスを操作する例について説明する。
[Sixth Modification]
A sixth modification describes changing the setting data according to the detected code. That is, the effect addition data is set for the code type, not for the timing as described above. Here, an example of manipulating the brightness according to the code type will be described.
図18は、ROM202に記憶される設定データの他の例を示す図である。ここではM,m,7th,m7,m7♭5,7sus4,dim7,augの8通りのコード種に対して、ブライトネスを指定する数値が効果付加データとして設定される。メジャーコードを基準として、マイナーコードではブライトネスを甘めにし、テンションコードではブライトネスを高くして聴衆の耳を刺激するといった、設計者の意図が伺える。
FIG. 18 is a diagram showing another example of setting data stored in the
第6の変形例では、伴奏制御部201b(図3)により決定されたコードタイプ値を設定反映部201cに渡し、設定反映部201cにより、コードタイプ値に対応する効果付加データを図18の設定データから取得する。そして設定反映部201cにより、設定データを反映するためのMIDIメッセージを作成して、音源204に渡すようにする。
In the sixth modification, the chord type values determined by the
なお、コードネームそのものでなく、曲の調におけるコードの役割(I,IV,Vあるいはその代理コードなど)に応じて効果付加データを選択することも可能である。多くの場合、I→IV→Vとコードが進行するにつれ、効果付加データは、よりエモーショナルになるように設定される。 It is also possible to select the effect addition data according to the role of the chord (I, IV, V or their substitute chords, etc.) in the key of the song, instead of the chord name itself. In many cases, as the chord progresses from I→IV→V, the effect addition data is set to become more emotional.
[第7の変形例]
以上の説明では、設定データは自動伴奏データと一体的に、予め固定的に設定されていることが想定される。第7の変形例では、自動伴奏の進行とともに、設定データがダイナミックに変更される。
[Seventh Modification]
In the above explanation, it is assumed that the setting data is fixedly set in advance integrally with the automatic accompaniment data. In the seventh modification, the setting data is dynamically changed as the automatic accompaniment progresses.
第7の変形例では、伴奏のバリエーションによって設定データを変更することについて説明する。つまり効果付加データは、伴奏のバリエーションに対して設定される。つまり、エモーショナル度合いを伴奏の内容に応じて変化させるように、効果付加データを設定する。例えば拍頭にエモーショナル度合いが高く、後半になれば低くなるように、効果付加データを設定することができる。ここでは、伴奏内容に応じてブライトネスを操作する例について説明する。 In the seventh modified example, changing the setting data according to variations of accompaniment will be described. That is, the effect addition data is set for variations of accompaniment. That is, the effect addition data is set so as to change the emotional degree according to the contents of the accompaniment. For example, effect addition data can be set so that the degree of emotionality is high at the beginning of the beat and low in the second half. Here, an example of operating the brightness according to the contents of the accompaniment will be described.
図19は、ROM202に記憶される設定データの他の例を示す図である。イントロ、ノーマル、バリエーション1~5、およびアウトロの各伴奏内容に対して、ブライトネスを指定する数値が効果付加データとして設定される。イントロではやや盛り上げ、ノーマルでは通常、バリエーションの数字が増えるほどに徐々に盛り上げ、バリエーション5で最高潮に達し、アウトロでやや盛り上げて終わるといった、作曲者の意図が伺える。
FIG. 19 is a diagram showing another example of setting data stored in the
このほか、通常の伴奏再生では効果付加データを抑制し(エモーショナルデータ低め)、フィル・インに入ると効果付加データを高く(エモーショナルデータ高め)設定するようにしてもよい。エモーショナルデータが高いと、音色が明るめになり、エモーショナルデータが低いと音色が暗めになる。 In addition, the effect addition data may be suppressed (lower emotional data) during normal accompaniment playback, and set higher (higher emotional data) when entering a fill-in. High Emotional Data results in a brighter timbre, while low Emotional Data results in a darker timbre.
あるいは、ループの再生回数が増えれば増えるほど、設定データがエモーション度合いを増すようにインクリメントされても良い。このほか、曲のジャンル、伴奏のジャンル、リズムの種類(8/16ビート、シャッフル、サンバなど)に応じて効果付加データを変化させてももちろん良い。 Alternatively, the setting data may be incremented so as to increase the degree of emotion as the number of times the loop is played increases. In addition, it is of course possible to change the effect addition data according to the genre of music, the genre of accompaniment, and the type of rhythm (8/16 beat, shuffle, samba, etc.).
以上述べたように実施形態、および各変形例によれば、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することができる。また、左手の押鍵が右手の演奏に影響を与えるという、プレイヤーにとっては未体験の演奏を実現することができる。 As described above, according to the embodiment and each modified example, it is possible to provide an electronic musical instrument, a control method, and a program capable of realizing richer performance expressions. In addition, it is possible to realize a performance that the player has never experienced before, in which key depression with the left hand affects performance with the right hand.
なお、この発明は上記実施の形態および変形例に限定されるものではない。
例えば、音源204の機能を、CPU201の演算リソースを利用するソフトウェアとして実装することも可能である。また、MIDIメッセージでなく、独自の規格に基づく制御メッセージにより音源204を制御することももちろん可能であるし、音源204がMIDI規格に準拠することも、必須ではない。
また、実施形態では、音源204に指示を与えて楽音を変化させる形態について説明した。これに限らず、楽音は、エフェクター212を制御することによっても変化させることができる。
また、音の表現に影響する指標としては上記に挙げたもののほか、サステイン、デチューン、アタック、ビブラートの速度や幅、細かさなど、さらに多様なものがあり、設定データによりこれらを制御することももちろん可能である。
It should be noted that the present invention is not limited to the above embodiments and modifications.
For example, it is possible to implement the function of the
Also, in the embodiment, a mode in which an instruction is given to the
In addition to the indicators mentioned above, there are various indicators that affect the expression of sound, such as sustain, detune, attack, vibrato speed, width, and detail, and these can be controlled by setting data. Of course it is possible.
結局のところ、再生される自動伴奏データに少なくとも対応づけられる設定データに従って、ユーザによる演奏操作子への演奏操作に応じて発音される演奏音に、何らかの変化が加えられればよい。すなわち本発明は、上述のような具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 Ultimately, it is sufficient that the performance sounds produced in response to the user's performance operations on the performance operators are changed in accordance with at least the setting data associated with the reproduced automatic accompaniment data. That is, the present invention is not limited to the specific embodiments as described above, and the technical scope of the present invention includes various modifications and improvements within the scope of achieving the object of the present invention. This is obvious to those skilled in the art from the description of the claims.
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
<請求項1>
音源と、
プロセッサと、
を具備し、前記プロセッサは、
自動伴奏パターンに応じた伴奏音の発音を前記音源に指示し、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示する、
電子楽器。
<請求項2>
演奏に先立って予め前記設定データを記憶するメモリ、をさらに具備し、
前記プロセッサは、前記メモリに記憶された前記設定データに基づく設定を前記楽音に反映する、請求項1に記載の電子楽器。
<請求項3>
前記設定データは、決定された前記自動伴奏パターンの再生開始タイミングから再生終了タイミングまでの間の少なくともいずれかのタイミングに対応付けられる、請求項1または2に記載の電子楽器。
<請求項4>
前記設定データは、前記楽音に、音響効果を付加するための効果付加データ、設定されている第1音色を第2音色に変更するための音色変更データ、前記ユーザ操作により指定される第1音量を第2音量に変更するための音量変更データ、および、前記ユーザ操作により指定される第1音高を第2音高に変更するための音高変更データ、のうち少なくともいずれか1つを含む、請求項1乃至3のいずれかに記載の電子楽器。
<請求項5>
コード入力鍵盤と、前記コード入力鍵盤よりも高音側に設けられるメロディ入力鍵盤と、を含む鍵盤を備え、
前記プロセッサは、
前記コード入力鍵盤への第1ユーザ操作に基づいて、複数の自動伴奏パターンのなかから自動伴奏パターンを決定し、
前記メロディ入力鍵盤への第2ユーザ操作に基づいて、指定された楽音の音高に前記設定データに基づく設定を反映させる、請求項1乃至4のいずれかに記載の電子楽器。
<請求項6>
前記プロセッサは、
前記第1ユーザ操作に基づいて、ルート値と、コードタイプ値と、を決定し、
決定された前記ルート値と、前記コードタイプ値と、に基づいて、発音させる前記自動伴奏パターンを前記複数の自動伴奏パターンのなかから決定する、請求項5に記載の電子楽器。
<請求項7>
電子楽器のコンピュータに、
自動伴奏パターンに応じた伴奏音の発音を音源に指示させ、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示させる、
制御方法。
<請求項8>
電子楽器のコンピュータに、
自動伴奏パターンに応じた伴奏音の発音を音源に指示させ、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示させる、
プログラム。
The invention described in the scope of claims originally attached to the application form of this application is additionally described below. The claim numbers of the claims described in the supplementary notes are as in the claims originally attached to the request of this application.
<Claim 1>
sound source and
a processor;
wherein the processor comprises:
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch designated by a user's operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
electronic musical instrument.
<Claim 2>
further comprising a memory for storing the setting data in advance prior to performance,
2. The electronic musical instrument according to
<Claim 3>
3. The electronic musical instrument according to
<Claim 4>
The setting data includes effect addition data for adding a sound effect to the musical tone, tone color change data for changing the set first tone color to a second tone color, and a first sound volume specified by the user operation. at least one of volume change data for changing to a second volume and pitch change data for changing the first pitch specified by the user operation to a second pitch The electronic musical instrument according to any one of
<Claim 5>
a keyboard including a chord input keyboard and a melody input keyboard provided on the higher tone side than the chord input keyboard;
The processor
determining an automatic accompaniment pattern from among a plurality of automatic accompaniment patterns based on a first user operation on the chord input keyboard;
5. The electronic musical instrument according to any one of
<Claim 6>
The processor
determining a root value and a chord type value based on the first user operation;
6. The electronic musical instrument according to
<Claim 7>
to the computer of the electronic musical instrument,
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch specified by a user operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
control method.
<Claim 8>
to the computer of the electronic musical instrument,
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch specified by a user operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
program.
3…記憶装置
4…MIDI装置
100…デジタルキーボード
101…鍵盤
101a…コード入力鍵盤
101b…メロディ入力鍵盤
102…スイッチパネル
103…スイッチパネル
200…制御システム
201…CPU
201a…コード検出部
201b…伴奏制御部
201c…設定反映部
202…ROM
203…RAM
204…音源
206…キースキャナ
207…LEDコントローラ
208…LCDコントローラ
209…システムバス
210…タイマ
211…デジタルアナログコンバータ
212…エフェクター
214…アンプ
215…MIDIインタフェース
300…音源システム
400…サウンドシステム
500…プログラム
a1~an…自動伴奏データ
b1~bm…設定データ。
3
201a...
203 RAM
204
Claims (8)
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、
処理を実行する電子楽器。 sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern ;
A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. do,
An electronic instrument that performs processing.
前記メロディ入力鍵盤における前記第2ユーザ操作による前記メロディ音に音響効果を付加するための効果付加データ、effect addition data for adding a sound effect to the melody sound by the second user's operation on the melody input keyboard;
設定されている前記メロディ音の第1音色を第2音色に変更するための音色変更データ、timbre change data for changing the set first timbre of the melody sound to a second timbre;
前記メロディ入力鍵盤における前記第2ユーザ操作により指定される第1音量を第2音量に変更するための音量変更データ、volume change data for changing the first volume specified by the second user operation on the melody input keyboard to the second volume;
前記メロディ入力鍵盤における前記第2ユーザ操作により指定される第1音高を第2音高に変更するための音高変更データ、pitch change data for changing the first pitch specified by the second user operation on the melody input keyboard to a second pitch;
のうち少なくともいずれか1つを含む、請求項1に記載の電子楽器。2. The electronic musical instrument according to claim 1, comprising at least one of:
決定された前記ルート値と、前記コードタイプ値と、に基づいて、発音させる前記自動伴奏パターンの発音態様を決定する請求項1又は2に記載の電子楽器。3. The electronic musical instrument according to claim 1, wherein a pronunciation mode of the automatic accompaniment pattern to be sounded is determined based on the determined root value and the chord type value.
前記ルート値及び前記コードタイプ値に応じた前記設定データを決定する請求項3に記載の電子楽器。4. An electronic musical instrument according to claim 3, wherein said setting data is determined according to said root value and said chord type value.
前記第2ユーザ操作に応じて前記プロセッサにより指示されたメロディ音を発音させる音源と、a sound source for producing a melody sound instructed by the processor in response to the second user operation;
ユーザによる演奏開始前から予め、前記自動伴奏パターンのデータを記憶しているメモリと、a memory storing the automatic accompaniment pattern data in advance before the user starts playing;
を備える、請求項1乃至4のいずれか一項に記載の電子楽器。5. The electronic musical instrument according to any one of claims 1 to 4, comprising:
前記プロセッサは、The processor
前記コード入力鍵盤への前記第1ユーザ操作に基づいて、前記自動伴奏パターンに応じた伴奏音の発音を前記音源に指示し、instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern based on the first user's operation on the chord input keyboard;
前記メロディ入力鍵盤への前記第2ユーザ操作に基づいて指定された音高に応じたメロディ音を、前記設定データに基づく設定に基づいて発音するように前記音源に指示する、請求項5に記載の電子楽器。6. The sound source according to claim 5, wherein said sound source is instructed to produce a melody sound corresponding to a pitch designated based on said second user's operation on said melody input keyboard based on settings based on said setting data. electronic musical instrument.
コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し、sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern;
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、処理を実行する制御方法。A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. A control method for executing a process of changing, based on the first setting, the pronunciation state of melody tones to be pronounced in response to the second user operation, when a first setting for changing the pronunciation state of melody tones by an operation is included. .
コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し、sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern;
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. do,
処理を実行させるプログラム。A program that causes an action to take place.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019173111A JP7263998B2 (en) | 2019-09-24 | 2019-09-24 | Electronic musical instrument, control method and program |
CN202010828464.7A CN112634847A (en) | 2019-09-24 | 2020-08-18 | Electronic musical instrument, control method, and storage medium |
JP2023063797A JP2023076772A (en) | 2019-09-24 | 2023-04-11 | Electronic musical instrument, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019173111A JP7263998B2 (en) | 2019-09-24 | 2019-09-24 | Electronic musical instrument, control method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063797A Division JP2023076772A (en) | 2019-09-24 | 2023-04-11 | Electronic musical instrument, control method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021051152A JP2021051152A (en) | 2021-04-01 |
JP2021051152A5 JP2021051152A5 (en) | 2021-07-26 |
JP7263998B2 true JP7263998B2 (en) | 2023-04-25 |
Family
ID=75157743
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019173111A Active JP7263998B2 (en) | 2019-09-24 | 2019-09-24 | Electronic musical instrument, control method and program |
JP2023063797A Pending JP2023076772A (en) | 2019-09-24 | 2023-04-11 | Electronic musical instrument, control method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023063797A Pending JP2023076772A (en) | 2019-09-24 | 2023-04-11 | Electronic musical instrument, control method, and program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7263998B2 (en) |
CN (1) | CN112634847A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259155A (en) | 1999-03-05 | 2000-09-22 | Kawai Musical Instr Mfg Co Ltd | Automatic accompaniment device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3005986B2 (en) * | 1988-12-15 | 2000-02-07 | カシオ計算機株式会社 | Automatic accompaniment device |
JP2529227Y2 (en) * | 1991-10-04 | 1997-03-19 | カシオ計算機株式会社 | Electronic musical instrument |
JPH05119773A (en) * | 1991-10-28 | 1993-05-18 | Matsushita Electric Ind Co Ltd | Automatic accompaniment device |
US5850051A (en) * | 1996-08-15 | 1998-12-15 | Yamaha Corporation | Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters |
JP6040809B2 (en) * | 2013-03-14 | 2016-12-07 | カシオ計算機株式会社 | Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program |
JP6497404B2 (en) * | 2017-03-23 | 2019-04-10 | カシオ計算機株式会社 | Electronic musical instrument, method for controlling the electronic musical instrument, and program for the electronic musical instrument |
JP7143576B2 (en) * | 2017-09-26 | 2022-09-29 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method and its program |
-
2019
- 2019-09-24 JP JP2019173111A patent/JP7263998B2/en active Active
-
2020
- 2020-08-18 CN CN202010828464.7A patent/CN112634847A/en active Pending
-
2023
- 2023-04-11 JP JP2023063797A patent/JP2023076772A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000259155A (en) | 1999-03-05 | 2000-09-22 | Kawai Musical Instr Mfg Co Ltd | Automatic accompaniment device |
Also Published As
Publication number | Publication date |
---|---|
JP2023076772A (en) | 2023-06-01 |
JP2021051152A (en) | 2021-04-01 |
CN112634847A (en) | 2021-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6703549B1 (en) | Performance data generating apparatus and method and storage medium | |
US8314320B2 (en) | Automatic accompanying apparatus and computer readable storing medium | |
JP3900188B2 (en) | Performance data creation device | |
JP3915807B2 (en) | Automatic performance determination device and program | |
JP5897805B2 (en) | Music control device | |
JP7263998B2 (en) | Electronic musical instrument, control method and program | |
JP3722005B2 (en) | Electronic music apparatus, control method therefor, and program | |
JP3705144B2 (en) | Performance data change processing device | |
JP3618203B2 (en) | Karaoke device that allows users to play accompaniment music | |
JP3900187B2 (en) | Performance data creation device | |
JP3613062B2 (en) | Musical sound data creation method and storage medium | |
JP7404737B2 (en) | Automatic performance device, electronic musical instrument, method and program | |
JP2001350471A (en) | Device for processing performance data expression making, and recording medium therefor | |
JP7327434B2 (en) | Program, method, information processing device, and performance data display system | |
US20230035440A1 (en) | Electronic device, electronic musical instrument, and method therefor | |
JP4244504B2 (en) | Performance control device | |
JP3235160B2 (en) | Music control device | |
JP5560574B2 (en) | Electronic musical instruments and automatic performance programs | |
JP3674469B2 (en) | Performance guide method and apparatus and recording medium | |
JP3226268B2 (en) | Concert magic automatic performance device | |
JP2008058796A (en) | Playing style deciding device and program | |
JP3870948B2 (en) | Facial expression processing device and computer program for facial expression | |
JP2004170840A (en) | Musical performance controller and program for musical performance control | |
JP3499672B2 (en) | Automatic performance device | |
JP2023133602A (en) | Program, method, information processing device and image display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210604 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210604 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221219 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20230104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230327 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7263998 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |