JP7263998B2 - Electronic musical instrument, control method and program - Google Patents

Electronic musical instrument, control method and program Download PDF

Info

Publication number
JP7263998B2
JP7263998B2 JP2019173111A JP2019173111A JP7263998B2 JP 7263998 B2 JP7263998 B2 JP 7263998B2 JP 2019173111 A JP2019173111 A JP 2019173111A JP 2019173111 A JP2019173111 A JP 2019173111A JP 7263998 B2 JP7263998 B2 JP 7263998B2
Authority
JP
Japan
Prior art keywords
setting
melody
data
automatic accompaniment
input keyboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173111A
Other languages
Japanese (ja)
Other versions
JP2021051152A (en
JP2021051152A5 (en
Inventor
順 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019173111A priority Critical patent/JP7263998B2/en
Priority to CN202010828464.7A priority patent/CN112634847A/en
Publication of JP2021051152A publication Critical patent/JP2021051152A/en
Publication of JP2021051152A5 publication Critical patent/JP2021051152A5/ja
Priority to JP2023063797A priority patent/JP2023076772A/en
Application granted granted Critical
Publication of JP7263998B2 publication Critical patent/JP7263998B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0016Means for indicating which keys, frets or strings are to be actuated, e.g. using lights or leds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、電子楽器、制御方法およびプログラムに関する。 The present invention relates to an electronic musical instrument, control method and program.

デジタルキーボードをはじめとする電子楽器は、プロセッサおよびメモリを備え、いわば鍵盤付きの組込みコンピュータといえる。音源とスピーカを備える機種では、多様な音色での演奏を単体で楽しむことができる。MIDI(Musical Instrument Digital Interface)規格に対応する機種がほとんどで、なかには自動伴奏機能を備える機種も知られている。 Electronic musical instruments such as digital keyboards are equipped with processors and memories, and can be said to be embedded computers with keyboards. Models equipped with a sound source and speakers allow you to enjoy performances with a variety of tones on their own. Most of the models conform to the MIDI (Musical Instrument Digital Interface) standard, and some models are known to have an automatic accompaniment function.

自動伴奏機能には複数のモードがある。基本的なモードでは、スタートボタンの押下とともにリズムセクションのループ再生が始まり、コードの指定を待ち受ける。この状態から例えばド、ミ、ソが押鍵されると、マシンによりCメジャーコードが解釈され、それに合ったメロディが自動で再生される。別のモードでは、ユーザの演奏するメロディラインにフィットするリズムパターンがマシンにより自動的に選択され、バックで再生される。 The automatic accompaniment function has multiple modes. In basic mode, pressing the start button starts looping the rhythm section and waits for a chord to be specified. In this state, for example, when C major chords are pressed, the machine interprets the C major chord and automatically reproduces a melody matching it. In another mode, a rhythm pattern that fits the melody line played by the user is automatically selected by the machine and played in the background.

特開2001-175263号公報Japanese Patent Application Laid-Open No. 2001-175263

電子楽器は、音を電子的に発生させることから、音そのものを操作することが容易である。つまり音に表情をつけやすい。例えばボリュームペダル、ピッチベンダー、あるいはモジュレーションホイール等の演奏操作子を上手に操作すれば、豊かな感情表現が可能である。
しかしながら、これらの演奏操作子を上手に操作することは難しい。
この発明は以上のような背景から生まれたもので、目的は、ユーザがこれらの演奏操作子を上手に操作できなくても、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することにある。
Since an electronic musical instrument generates sound electronically, it is easy to manipulate the sound itself. In other words, it is easy to add expression to the sound. For example, skillful manipulation of performance operators such as volume pedals, pitch benders, and modulation wheels enables rich emotional expressions.
However, it is difficult to skillfully operate these performance controls.
The present invention was born from the background described above, and an object of the present invention is to provide an electronic musical instrument, a control method, and a program capable of realizing a richer performance expression even if the user cannot operate these performance controls well. to provide.

実施形態によれば、電子楽器は、コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、処理を実行する。 According to the embodiment, the electronic musical instrument sequentially generates accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard, and sets setting data different from the automatic accompaniment pattern, A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. to execute the process.

この発明によれば、より豊かな演奏表現を実現することができる。 According to the present invention, it is possible to realize a richer performance expression.

図1は、実施形態に係る電子楽器の一例を示す外観図である。FIG. 1 is an external view showing an example of an electronic musical instrument according to an embodiment. 図2は、実施形態に係る電子鍵盤楽器の制御システムの一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the control system for the electronic keyboard instrument according to the embodiment. 図3は、実施形態に係わるCPU201の処理機能、およびROM202に記憶される内容の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of processing functions of the CPU 201 and contents stored in the ROM 202 according to the embodiment. 図4Aは、自動伴奏パターンの一例を示す図である。FIG. 4A is a diagram showing an example of an automatic accompaniment pattern. 図4Bは、図4Aの自動伴奏パターンに対応する自動伴奏データの一例を示す図である。FIG. 4B is a diagram showing an example of automatic accompaniment data corresponding to the automatic accompaniment pattern of FIG. 4A. 図5Aは、自動伴奏パターンの一例を示す図である。FIG. 5A is a diagram showing an example of an automatic accompaniment pattern. 図5Bは、図5Aの自動伴奏パターンに対応する自動伴奏データの一例を示す図である。FIG. 5B is a diagram showing an example of automatic accompaniment data corresponding to the automatic accompaniment pattern of FIG. 5A. 図6は、伴奏制御部201bによる処理手順の一例を示すフローチャートである。FIG. 6 is a flow chart showing an example of a processing procedure by the accompaniment control section 201b. 図7は、図5Bに示されるノート情報が、バックのコードに沿って変更されることを説明するための図である。FIG. 7 is a diagram for explaining that the note information shown in FIG. 5B is changed along the back chord. 図8は、伴奏制御部201bにより生成された伴奏の一例を示す図である。FIG. 8 is a diagram showing an example of accompaniment generated by the accompaniment control section 201b. 図9は、ROM202に記憶される設定データの一例を示す図である。FIG. 9 is a diagram showing an example of setting data stored in the ROM 202. As shown in FIG. 図10は、ブライトネスを制御する効果付加データについて説明するための図である。FIG. 10 is a diagram for explaining effect addition data for controlling brightness. 図11は、実施形態に係わる伴奏発音処理の手順の一例を示すフローチャートである。FIG. 11 is a flow chart showing an example of the procedure of accompaniment sound production processing according to the embodiment. 図12は、ポルタメントについて説明するための図である。FIG. 12 is a diagram for explaining portamento. 図13は、ROM202に記憶される設定データの他の例を示す図である。FIG. 13 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図14は、ROM202に記憶される設定データの他の例を示す図である。FIG. 14 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図15は、ROM202に記憶される設定データの他の例を示す図である。FIG. 15 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図16は、ROM202に記憶される設定データの他の例を示す図である。FIG. 16 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図17は、ROM202に記憶される設定データの他の例を示す図である。FIG. 17 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図18は、ROM202に記憶される設定データの他の例を示す図である。FIG. 18 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. 図19は、ROM202に記憶される設定データの他の例を示す図である。FIG. 19 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG.

以下に、図面を参照して本発明の一側面に係る実施の形態を説明する。以下に説明する形態は、あらゆる点において本発明の例示に過ぎず、本発明の範囲を逸脱することなく種々の改良や変形を行うことができる。つまり、本発明を実施する際に、実施形態に応じた具体的構成が適宜採用されてもよい。 Embodiments according to one aspect of the present invention will be described below with reference to the drawings. The embodiments described below are merely examples of the present invention in every respect, and various improvements and modifications can be made without departing from the scope of the present invention. That is, when carrying out the present invention, a specific configuration according to the embodiment may be appropriately employed.

<外観および鍵盤>
図1は、実施形態に係る電子楽器の一例を示す外観図である。実施形態では、電子楽器としてデジタルキーボード100を想定する。デジタルキーボード100は、鍵盤101と、第1のスイッチパネル102と、第2のスイッチパネル103と、LCD(Liquid Crystal Display)104とを備える。
<Appearance and keyboard>
FIG. 1 is an external view showing an example of an electronic musical instrument according to an embodiment. In this embodiment, a digital keyboard 100 is assumed as an electronic musical instrument. A digital keyboard 100 includes a keyboard 101 , a first switch panel 102 , a second switch panel 103 , and an LCD (Liquid Crystal Display) 104 .

鍵盤101は、複数の鍵の集合である。各鍵は、それぞれ音高を指定するための操作子である。各鍵に発光ダイオードなどを埋め込み、光らせることで演奏ガイドとしての役割を持たせることもできる。 A keyboard 101 is a set of keys. Each key is an operator for designating a pitch. It is also possible to embed light-emitting diodes in each key and make it play a role as a performance guide by lighting it up.

鍵盤101は、コード入力鍵盤101aと、コード入力鍵盤101aよりも高音側に設けられるメロディ入力鍵盤101bとを含む。コード入力鍵盤101aは、自動伴奏におけるベースノートやコードを指定するために、左手で押鍵される。メロディ入力鍵盤101bは、メロディを弾くために右手で演奏される。コード入力鍵盤101aとメロディ入力鍵盤101bとの境目であるスプリットポイントは、例えば音高F3の鍵にプリセットされる。スプリットポイントを変更可能な機種もある。 The keyboard 101 includes a chord input keyboard 101a and a melody input keyboard 101b provided on the higher tone side than the chord input keyboard 101a. The chord input keyboard 101a is pressed with the left hand to specify bass notes and chords in automatic accompaniment. The melody input keyboard 101b is played with the right hand to play the melody. A split point, which is a boundary between the chord input keyboard 101a and the melody input keyboard 101b, is preset to a key of pitch F3, for example. Some models allow you to change the split point.

第1のスイッチパネル102は、音量の指定、自動演奏のテンポ設定、自動演奏開始等の各種設定を指示するための、ユーザインタフェースである。第2のスイッチパネル103は、各種モードの選択、自動演奏曲の選曲、あるいは音色の選択などを行なうために用いられる。LCD104は、自動伴奏、自動演奏時の歌詞や各種設定情報を表示する表示部として機能する。さらに、デジタルキーボード100は、演奏により生成された楽音を発音するスピーカ(発音部)を裏面部、側面部、又は背面部などに備えても良い。 The first switch panel 102 is a user interface for instructing various settings such as volume specification, automatic performance tempo setting, and automatic performance start. The second switch panel 103 is used to select various modes, select automatically played tunes, or select tone colors. The LCD 104 functions as a display unit that displays lyrics and various setting information during automatic accompaniment and automatic performance. Furthermore, the digital keyboard 100 may include a speaker (sound generator) for producing musical tones generated by a performance on the rear surface, side surface, rear surface, or the like.

<構成>
図2は、実施形態に係るデジタルキーボード100の制御システム200の一例を示すブロック図である。制御システム200は、RAM(Random Access Memory)203、ROM(Read Only Memory)202、LCD104、LCDコントローラ208、LED(Light Emitthing Diode)コントローラ207、鍵盤101、第1のスイッチパネル102、第2のスイッチパネル103、キースキャナ206、MIDIインタフェース(I/F)215、システムバス209、CPU(Central Processing Unit)201、タイマ210、音源システム300、および、サウンドシステム400を備える。
音源システム300は、例えばDSP(Digital Signal Processor)として実現される音源204と、エフェクター212を備える。サウンドシステム400は、デジタルアナログコンバータ211とアンプ214を備える。
<Configuration>
FIG. 2 is a block diagram showing an example of the control system 200 of the digital keyboard 100 according to the embodiment. The control system 200 includes a RAM (Random Access Memory) 203, a ROM (Read Only Memory) 202, an LCD 104, an LCD controller 208, an LED (Light Emitting Diode) controller 207, a keyboard 101, a first switch panel 102, and a second switch. It has a panel 103 , a key scanner 206 , a MIDI interface (I/F) 215 , a system bus 209 , a CPU (Central Processing Unit) 201 , a timer 210 , a tone generator system 300 and a sound system 400 .
The tone generator system 300 includes a tone generator 204 implemented as, for example, a DSP (Digital Signal Processor) and an effector 212 . Sound system 400 includes digital-to-analog converter 211 and amplifier 214 .

CPU201、ROM202、RAM203、音源204、デジタルアナログコンバータ211、キースキャナ206、LEDコントローラ207、LCDコントローラ208、MIDIインタフェース215は、それぞれシステムバス209に接続される。 The CPU 201, ROM 202, RAM 203, sound source 204, digital-to-analog converter 211, key scanner 206, LED controller 207, LCD controller 208, and MIDI interface 215 are connected to a system bus 209, respectively.

CPU201は、デジタルキーボード100を制御するプロセッサである。すなわちCPU201は、ROM202に記憶されたプログラムを、ワーキングメモリとしてのRAM203に読み出し、実行して、デジタルキーボード100の各種の機能を実現する。CPU201は、タイマ210から供給されるクロックに従って動作する。クロックは、例えば自動演奏、自動伴奏のシーケンスを制御するために用いられる。 A CPU 201 is a processor that controls the digital keyboard 100 . That is, the CPU 201 reads programs stored in the ROM 202 into the RAM 203 as a working memory and executes them to implement various functions of the digital keyboard 100 . The CPU 201 operates according to clocks supplied from the timer 210 . The clock is used, for example, to control sequences of automatic performance and automatic accompaniment.

ROM202は、実施形態に係る処理を実現するプログラム、各種設定データ、自動伴奏データ等を記憶する。自動伴奏データは、予めプリセットされたリズムパターン、コード進行、ベースパターン、あるいはオブリガード等のメロディデータ等を含んでよい。メロディデータは、各音の音高情報、各音の発音タイミング情報等を含んでよい。 A ROM 202 stores a program for realizing processing according to the embodiment, various setting data, automatic accompaniment data, and the like. The automatic accompaniment data may include preset rhythm patterns, chord progressions, bass patterns, or melody data such as obbligato. The melody data may include pitch information of each sound, pronunciation timing information of each sound, and the like.

各音の発音タイミングは、各発音間の間隔時間でもよく、自動演奏曲の開始時からの経過時間であっても良い。時間の単位にはtickが用いられることが多い。tickは、一般的なシーケンサで用いられる、曲のテンポを基準とする単位である。例えば、シーケンサの分解能が480であれば、4分音符の時間の1/480が1tickとなる。 The sounding timing of each sound may be the interval time between soundings or the elapsed time from the start of the automatically played music. A tick is often used as the unit of time. A tick is a unit based on the tempo of a song, which is used in a general sequencer. For example, if the resolution of the sequencer is 480, one tick is 1/480 of the time of a quarter note.

自動伴奏データは、ROM202に限らず、図示しない情報記憶装置や情報記憶媒体に記憶されていても良い。自動伴奏データのフォーマットは、MIDI用のファイルフォーマットに準拠してもよい。 The automatic accompaniment data may be stored not only in the ROM 202 but also in an information storage device or information storage medium (not shown). The format of the automatic accompaniment data may conform to the file format for MIDI.

音源204は、例えばGM(General MIDI)規格に準拠する、いわゆるGM音源である。この種の音源は、MIDIメッセージとしてのプログラムチェンジを与えれば音色を変更できるし、コントロールチェンジを与えれば既定のエフェクトを制御することができる。 The tone generator 204 is, for example, a so-called GM tone generator conforming to the GM (General MIDI) standard. This kind of sound source can change the timbre by giving a program change as a MIDI message, and can control a predetermined effect by giving a control change.

音源204は、例えば同時に最大256ボイスを発音する能力を有する。音源204は、例えば波形ROM(図示せず)から楽音波形データを読み出し、デジタル楽音波形データとしてエフェクター212に出力する。エフェクター212は、デジタル楽音波形データを加工して様々な効果を付加する。例えば特定の帯域を強調するイコライザや、わずかにずらした音を重ねるコーラス、エコー効果をもたらすディレイなどはその代表的なものである。エフェクトのかかったウェット音、あるいはノーエフェクトのドライ音は、デジタル楽音波形データとしてデジタルアナログコンバータ211に出力される。 Sound source 204 is capable of producing, for example, up to 256 voices simultaneously. The tone generator 204 reads musical tone waveform data from, for example, a waveform ROM (not shown) and outputs it to the effector 212 as digital musical tone waveform data. The effector 212 processes the digital musical tone waveform data to add various effects. For example, an equalizer that emphasizes a specific band, a chorus that layers slightly shifted sounds, and a delay that creates an echo effect are typical examples. The effected wet sound or the no-effect dry sound is output to the digital-to-analog converter 211 as digital musical tone waveform data.

デジタルアナログコンバータ211は、デジタル楽音波形データをアナログ楽音波形信号に変換する。アナログ楽音波形信号は、アンプ214で増幅され、図示しないスピーカ又は出力端子から出力される。 A digital-to-analog converter 211 converts the digital musical tone waveform data into an analog musical tone waveform signal. The analog musical tone waveform signal is amplified by an amplifier 214 and output from a speaker (not shown) or an output terminal.

エフェクター212によらず、音源204をMIDIメッセージで制御してエフェクトを得ることもできる。例えばポルタメントは、MIDIメッセージとしてのコントロールチェンジによりオン/オフ、および0~127の刻みでかかり具合(ポルタメントタイム)を指定できる。リバーブ、トレモロ、コーラス、およびセレステ等の各種エフェクトもMIDIに策定されている。ブライトネス、モジュレーションなどの効果もコントロールチェンジで制御することができる。さらに、ピッチベンダーやモジュレーションホイールを操作して得られる効果も、コントロールチェンジで制御することができる。 Effects can also be obtained by controlling the sound source 204 with MIDI messages without using the effector 212 . For example, portamento can be specified on/off by a control change as a MIDI message, and the degree of application (portamento time) in steps of 0-127. Various effects such as reverb, tremolo, chorus, and celeste have also been designed into MIDI. Effects such as brightness and modulation can also be controlled with control changes. Furthermore, the effects obtained by operating the pitch bender and modulation wheel can also be controlled with control changes.

キースキャナ206は、鍵盤101の押鍵/離鍵状態、第1のスイッチパネル102、及び第2のスイッチパネル103のスイッチ操作状態を定常的に監視する。そして、キースキャナ206は、鍵盤101、第1のスイッチパネル102、及び第2のスイッチパネル103の状態をCPU201に伝える。 The key scanner 206 constantly monitors the key depression/key release state of the keyboard 101 and the switch operation states of the first switch panel 102 and the second switch panel 103 . The key scanner 206 then informs the CPU 201 of the states of the keyboard 101 , the first switch panel 102 and the second switch panel 103 .

LEDコントローラ207は、例えばIC(Integated Circuit)である。LEDコントローラ207は、CPU201からの指示により鍵盤101の鍵を光らせて、演奏者の演奏をナビゲートする。LCDコントローラ208は、LCD104の表示状態を制御するICである。 The LED controller 207 is, for example, an IC (Integrated Circuit). The LED controller 207 illuminates the keys of the keyboard 101 according to instructions from the CPU 201 to navigate the performer's performance. The LCD controller 208 is an IC that controls the display state of the LCD 104 .

MIDIインタフェース215は、MIDI装置4等の外部装置からのMIDIメッセージ(演奏データ等)を入力したり、MIDIメッセージを外部装置に出力したりする。デジタルキーボード100は、例えばUSB(Universal Serial Bus)等のインタフェースを用いて、外部装置とMIDIメッセージやMIDIデータファイルを授受することが可能である。受信されたMIDIメッセージは、CPU201経由で音源204に渡される。音源204は、MIDIメッセージで指定された音色、音量、タイミング等に従って音を鳴らす。 The MIDI interface 215 inputs MIDI messages (performance data, etc.) from external devices such as the MIDI device 4, and outputs MIDI messages to external devices. The digital keyboard 100 can exchange MIDI messages and MIDI data files with an external device using an interface such as a USB (Universal Serial Bus). The received MIDI message is passed to the tone generator 204 via the CPU 201 . The tone generator 204 produces sound according to the tone color, volume, timing, etc. specified by the MIDI message.

リムーバブルメディアとしての記憶装置3が、例えばUSB経由でシステムバス209に接続されても良い。記憶装置3としては、例えば、USBメモリ、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD-ROMドライブ及び光磁気ディスク(MO)ドライブ等が挙げられる。ROM202にプログラムが記憶されていない場合には、記憶装置3にプログラムを記憶させておき、それをRAM203に読み込むことにより、ROM202にプログラムを記憶している場合と同様の動作をCPU201に実行させることができる。 A storage device 3 as a removable medium may be connected to the system bus 209 via USB, for example. Examples of the storage device 3 include a USB memory, flexible disk drive (FDD), hard disk drive (HDD), CD-ROM drive, and magneto-optical disk (MO) drive. When the program is not stored in the ROM 202, the program is stored in the storage device 3 and read into the RAM 203 to cause the CPU 201 to perform the same operation as when the program is stored in the ROM 202. can be done.

図3は、実施形態に係わるCPU201の処理機能、およびROM202に記憶される内容の一例を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing an example of processing functions of the CPU 201 and contents stored in the ROM 202 according to the embodiment.

ROM202は、CPU201の処理機能を実現するプログラム500に加えて、自動伴奏データa1~an、および設定データb1~bmを記憶する。自動伴奏データa1~anは、各パートごとに予め作成された様々な自動伴奏パターンを表現する、例えばMIDIデータの集合である。図4Aに示される伴奏パターンに対応する自動伴奏データは、例えば図4Bに示される内容となる。 The ROM 202 stores automatic accompaniment data a1 to an and setting data b1 to bm in addition to the program 500 that implements the processing functions of the CPU 201 . The automatic accompaniment data a1-an is, for example, a set of MIDI data representing various automatic accompaniment patterns created in advance for each part. The automatic accompaniment data corresponding to the accompaniment pattern shown in FIG. 4A has the contents shown in FIG. 4B, for example.

<自動伴奏データについて>
図4Aは、1小節の中で2分音符のCメジャーコードを2回鳴らす、という自動伴奏パターンを示す。この自動伴奏パターンは、図4Bに示されるように記譜上でのタイミングを示す数値、ノート情報(音名と音高)を示す記号、ベロシティおよび音長を示す数値で表現することができる。音長の単位は例えばtickである。1拍あたりのtick数は96に設定することが多い。この場合、8分音符の音長は48tick、2分音符の音調は192tickでカウントされる。図4Bにおいては160tickであるので、2分音符の最大音長よりもやや短い音長で発音されることがわかる。
<About automatic accompaniment data>
FIG. 4A shows an automatic accompaniment pattern in which a half note C major chord is sounded twice in one bar. This automatic accompaniment pattern can be represented by numerical values indicating notated timing, symbols indicating note information (pitch name and pitch), and numerical values indicating velocity and duration, as shown in FIG. 4B. The unit of sound length is tick, for example. The number of ticks per beat is often set to 96. In this case, the tone length of an eighth note is counted by 48 ticks, and the tone of a half note is counted by 192 ticks. Since it is 160 ticks in FIG. 4B, it can be seen that the tone length is slightly shorter than the maximum tone length of the half note.

図5Aは、Cメジャーコードへのオブリ(オブリガード)パートの一例で、コードトーンによる8分音符での往復を示す自動伴奏パターンである。この自動伴奏パターンについては、例えば図5Bに示されるように、各音のタイミング、ノート情報、ベロシティ、および音長が設定される。音長は40tickであり、8分音符の最大音長よりもやや短く設定されていることがわかる。 FIG. 5A is an example of an obligate part to a C major chord, which is an automatic accompaniment pattern showing a round trip of eighth notes by chord tones. For this automatic accompaniment pattern, the timing, note information, velocity, and length of each note are set as shown in FIG. 5B, for example. It can be seen that the tone length is 40 ticks, which is set slightly shorter than the maximum tone length of an eighth note.

<CPU201の機能について>
CPU201は、実施形態に係わる処理機能として、コード検出部201a、伴奏制御部201b、および、設定反映部201cを具備する。これらの機能は、プログラム500により実現される。
<Functions of CPU 201>
The CPU 201 has a chord detection section 201a, an accompaniment control section 201b, and a setting reflection section 201c as processing functions related to the embodiment. These functions are realized by the program 500. FIG.

コード検出部201aは、第1ユーザ操作に基づいて、複数の自動伴奏パターンのなかから発音させる自動伴奏パターンを決定する。ここで、第1ユーザ操作は、例えばコード入力鍵盤101aへの操作(演奏)である。コード入力鍵盤101aの出力データは、コード検出部201aに渡される。なお、メロディ入力鍵盤101bへの操作(演奏)を、第2ユーザ操作の一例とする。メロディー演奏鍵盤の101bの出力データは、設定反映部201cに渡される。 The chord detection unit 201a determines an automatic accompaniment pattern to be sounded from among a plurality of automatic accompaniment patterns based on a first user operation. Here, the first user operation is, for example, an operation (performance) on the chord input keyboard 101a. Output data of the chord input keyboard 101a is passed to the chord detection section 201a. Note that the operation (performance) on the melody input keyboard 101b is an example of the second user operation. The output data of the melody playing keyboard 101b is passed to the setting reflecting section 201c.

伴奏制御部201bは、コード検出部201aにより決定された自動伴奏パターンに応じた伴奏音の発音を、音源204、または音源システム300に指示する。すなわち伴奏制御部201bは、コード入力鍵盤101aのいずれかの鍵が押鍵されると、当該鍵に対応付けられた音名(ノートナンバー)に基づいて、ルート値と、コードタイプ値と、を決定する。ここで、ルート値とはC=ドからB=シまでの12段階の音名値であり、コードタイプ値とは、コードの種類に対応づけられた数値データである。ちなみにコードの種類には、例えばM(Major),m(minor),dim,aug,sus4,sus2,7th,m7,M7,m7♭5,7♭5,7sus4,add9,madd9,mM7,dim7,69,6th,m6等がある。 The accompaniment control section 201b instructs the sound source 204 or the sound source system 300 to produce accompaniment sounds corresponding to the automatic accompaniment pattern determined by the chord detection section 201a. That is, when any key of the chord input keyboard 101a is pressed, the accompaniment control unit 201b sets the root value and the chord type value based on the note name (note number) associated with the key. decide. Here, the root value is a tone name value in 12 steps from C=Do to B=B, and the chord type value is numerical data associated with the chord type. By the way, the types of chords include, for example, M (Major), m (minor), dim, aug, sus4, sus2, 7th, m7, M7, m7♭5, 7♭5, 7sus4, add9, madd9, mM7, dim7, 69, 6th, m6, etc.

そして伴奏制御部201bは、決定されたルート値およびコードタイプ値に基づいてコードネームを特定する。さらに伴奏制御部201bは、この特定されたコードネームに基づいて、発音すべき自動伴奏パターンを複数の自動伴奏パターンのなかから決定し、対応する自動伴奏データをROM202から読み出す。 The accompaniment control section 201b then identifies the chord name based on the determined root value and chord type value. Further, the accompaniment control section 201b determines an automatic accompaniment pattern to be pronounced from among a plurality of automatic accompaniment patterns based on the specified chord name, and reads the corresponding automatic accompaniment data from the ROM202.

また伴奏制御部201bは、読み出した自動伴奏データと、コード検出部201aから渡されたコードタイプ値とに応じて伴奏を生成し、音源システム300に渡す。音源システム300は、伴奏制御部201bの生成した伴奏をパート毎のオーディオデータに変換し、サウンドシステム400に出力する。 The accompaniment control section 201b also generates an accompaniment according to the read automatic accompaniment data and the chord type value passed from the chord detection section 201a, and passes the generated accompaniment to the tone generator system 300. FIG. The tone generator system 300 converts the accompaniment generated by the accompaniment control section 201 b into audio data for each part, and outputs the audio data to the sound system 400 .

設定反映部201cは、メロディ入力鍵盤101bで押鍵して指定された音高の楽音に、コード検出部201aにより決定された自動伴奏パターンに対応する設定データに基づく設定を反映させる。つまり設定反映部201cは、メロディ入力鍵盤101bで演奏されるフレーズに、選択された設定データを反映するための、例えばMIDIメッセージを作成する。設定反映部201cは、このMIDIメッセージを音源システム300に与えて、右手での演奏に効果を付加する。あるいは、メロディ入力鍵盤101bの押鍵に応じて作成される例えばMIDIメッセージに、選択された設定データに応じた各種設定を反映させてもよい。あるいは、メロディ入力鍵盤101bの押鍵、非押鍵に関わらず、予め設定されているタイミングに選択された設定データに応じた例えばMIDIメッセージを作成してもよい。 The setting reflection unit 201c reflects the setting based on the setting data corresponding to the automatic accompaniment pattern determined by the chord detection unit 201a to the musical tone of the pitch specified by pressing the key on the melody input keyboard 101b. In other words, the setting reflection unit 201c creates, for example, a MIDI message for reflecting the selected setting data in the phrase played on the melody input keyboard 101b. The setting reflection unit 201c gives this MIDI message to the tone generator system 300 to add effects to the performance with the right hand. Alternatively, various settings corresponding to the selected setting data may be reflected in, for example, a MIDI message created in response to key depression on the melody input keyboard 101b. Alternatively, for example, a MIDI message may be created according to setting data selected at preset timing regardless of whether or not a key is pressed on the melody input keyboard 101b.

ところで、伴奏制御部201bは、コード検出部201aにより検出されたコードに基づいて自動伴奏パターンのノート情報を変更することで、適切な伴奏を生成する。 Incidentally, the accompaniment control section 201b generates an appropriate accompaniment by changing the note information of the automatic accompaniment pattern based on the chords detected by the chord detection section 201a.

<伴奏の生成について>
図6は、伴奏制御部201bによる処理手順の一例を示すフローチャートである。伴奏制御部201bは、ドラムパート以外のパートについて、自動伴奏データのノート情報(音高)をバックのコードに応じて変更する。ドラムパートについては、発音される音の性質上、変更の必要は無いとみなされる。
<Generation of accompaniment>
FIG. 6 is a flow chart showing an example of a processing procedure by the accompaniment control section 201b. The accompaniment control unit 201b changes the note information (pitch) of the automatic accompaniment data for parts other than the drum part according to the chords of the backing. As for the drum part, it is considered that there is no need to change it due to the nature of the sounds that are produced.

図6において伴奏が開始されると、伴奏制御部201bは、自動伴奏データがドラムパートでなければ(ステップS1でNo)、当該自動伴奏データのノート情報を、コード検出部201aにより検出されたコードデータ(コードネーム)に対応付けて変更する(ステップS2)。図7に示されるように、伴奏制御部201bは、コード検出部201aにより検出されたコードがFメジャーであれば、Cメジャーコード用の自動伴奏パターン(図5A、図5B)のノート情報をそれぞれ4度上に変更する。これにより自動伴奏されるメロディは、図8に示されるように変更される。 When the accompaniment is started in FIG. 6, if the automatic accompaniment data is not a drum part (No in step S1), the accompaniment control section 201b converts the note information of the automatic accompaniment data into the chord detected by the chord detection section 201a. It is changed in association with the data (codename) (step S2). As shown in FIG. 7, if the chord detected by the chord detection unit 201a is F major, the accompaniment control unit 201b sets the note information of the automatic accompaniment patterns (FIGS. 5A and 5B) for the C major chord. Change 4 degrees up. The melody automatically accompaniment is thereby changed as shown in FIG.

<設定データについて>
図9は、ROM202(図3)に記憶される設定データの一例を示す図である。設定データの一例として、当業者には[エモーショナルデータ]と称されるデータがある。図9に示されるように、設定データは[タイミング]に[効果付加データ]を対応付けて、少なくともユーザによる演奏よりも前に作成されて、予めROM202に記憶される。[タイミング]は、[小節:拍:tick]で示される時間データであり、自動伴奏パターンの再生開始タイミングから再生終了タイミングまでの間の少なくともいずれかのタイミングに対応付けられる。なお図9においては、1小節目と2小節目のデータを示す。
演奏される音に音響効果を付加するための[効果付加データ]が、例えばタイミングに対応付けて設定される。ブライトネスに係わる設定データb1を例に採り説明する。
<About setting data>
FIG. 9 is a diagram showing an example of setting data stored in the ROM 202 (FIG. 3). An example of setting data is data called "emotional data" by those skilled in the art. As shown in FIG. 9, the setting data associates the [timing] with the [additional effect data], is created at least before the performance by the user, and is stored in the ROM 202 in advance. [Timing] is time data indicated by [bar:beat:tick], and is associated with at least one of the timings between the playback start timing and the playback end timing of the automatic accompaniment pattern. Note that FIG. 9 shows the data of the first bar and the second bar.
[Effect addition data] for adding acoustic effects to the sound to be played is set in association with, for example, timing. The setting data b1 related to brightness will be described as an example.

図10に示されるように、ブライトネスは倍音成分の利得を制御することで、音に「きらめき」や「明るさ」といった効果をもたらす。例えば1kHz~2kHz付近の帯域を境界として倍音成分のゲインを上げると、音が明るくなる効果を得られる。ゲインを下げれば、音は丸くなるといわれる。 As shown in FIG. 10, brightness controls the gain of overtone components to produce effects such as "shimmer" and "brightness" in the sound. For example, if the gain of the overtone component is increased with the band around 1 kHz to 2 kHz as the boundary, the effect of brightening the sound can be obtained. It is said that lowering the gain makes the sound rounder.

技術的には-12dB~+12dBの範囲でゲインを制御できれば十分で、例えばこれを8ビット、256階調で-127~+127の範囲で表す数値を、ブライトネスに係わる効果付加データとする。効果付加データがプラスならば、プラス値に応じて倍音のゲインが上げられ、高域が強調される。効果付加データがマイナスならば、マイナス値に応じて倍音のゲインが下げられ、高域が抑圧される。 Technically, it is sufficient to be able to control the gain in the range of -12 dB to +12 dB. For example, numerical values expressed in the range of -127 to +127 with 8 bits and 256 gradations are used as effect added data related to brightness. If the effect addition data is positive, the gain of harmonic overtones is increased according to the positive value to emphasize the high frequencies. If the effect added data is negative, the gain of harmonic overtones is lowered according to the negative value, and the high frequencies are suppressed.

図9によれば、例えば1小節目の1拍目では、0というデータが取り出され、1小節目の4拍目では、+100というデータが取り出される。また、1小節目の4拍目で押鍵すると、効果付加データが-24なので、設定反映部201cは、MIDIメッセージにそのことを記載して音源204に指示する。これによりそのタイミングでの発音の音色の高周波数成分が下がり、甘い音になる。また、2小節目の4拍目では、効果付加データは+100なので、設定反映部201cは、MIDIメッセージ(コントロールチェンジ)にそのことを記載して音源204に指示する。これによりそのタイミングでの発音の音色の高周波成分が上がり、キラキラした音になる。 According to FIG. 9, for example, data 0 is extracted at the first beat of the first bar, and data +100 is extracted at the fourth beat of the first bar. Also, when the key is pressed at the fourth beat of the first bar, the effect added data is -24, so the setting reflecting section 201c describes this in the MIDI message and instructs the tone generator 204 to do so. As a result, the high frequency components of the timbre of the sound produced at that timing are lowered, resulting in a sweeter sound. At the 4th beat of the 2nd bar, the effect added data is +100, so the setting reflecting unit 201c describes this in the MIDI message (control change) and instructs the tone generator 204 to do so. This raises the high-frequency components of the timbre of the pronunciation at that timing, making the sound sparkling.

図11は、実施形態に係わる伴奏発音処理の手順の一例を示すフローチャートである。このフローチャートを実行する命令を含むプログラムは、自動伴奏の再生開始から終了に至るまでのループにおいて、例えば既定の割り込みタイミングの到来ごとに呼び出され、CPU201により実行される。 FIG. 11 is a flow chart showing an example of the procedure of accompaniment sound production processing according to the embodiment. A program including instructions for executing this flow chart is called and executed by the CPU 201, for example, each time a predetermined interrupt timing arrives in a loop from the start to the end of automatic accompaniment reproduction.

図11において、コード検出部201aは、コード入力鍵盤101aの押鍵を待ち受け(ステップS11)、設定反映部201cは、メロディー演奏鍵盤の101bの押鍵を待ち受ける(ステップS15)。
コード入力鍵盤101aが押鍵されると(ステップS11でYes)、コード検出部201aは、押鍵された健の音高情報(ノート情報)とベロシティ情報とを取得する(ステップS12)。音高情報およびベロシティ情報に対応するコードが検出されれば(ステップS13)、コード検出部201aは、コードのルート値およびコードタイプ値を伴奏制御部201bに渡し(ステップS14)、呼び出し元に戻る(RETURN)。
In FIG. 11, the chord detection unit 201a waits for key depression of the chord input keyboard 101a (step S11), and the setting reflection unit 201c waits for key depression of the melody performance keyboard 101b (step S15).
When the chord input keyboard 101a is pressed (Yes in step S11), the chord detection unit 201a acquires pitch information (note information) and velocity information of the pressed key (step S12). If a chord corresponding to the pitch information and velocity information is detected (step S13), the chord detection section 201a passes the chord root value and chord type value to the accompaniment control section 201b (step S14), and returns to the caller. (RETURN).

一方、メロディー演奏鍵盤の101bの押鍵が検出されると(ステップS15でYes)、設定反映部201cは、音高情報とベロシティ情報とを取得する(ステップS16)。そして、その時点でのタイミングにおいて効果付加データが定義されており、伴奏制御部201bから効果付加データを取得することができれば(ステップS17でYes)、設定反映部201cは、音高情報、ベロシティ情報、および効果付加データに基づく発音を音源204に指示する(ステップS18)。 On the other hand, when the depression of the melody performance keyboard 101b is detected (Yes in step S15), the setting reflection unit 201c acquires pitch information and velocity information (step S16). Then, if the effect added data is defined at the timing at that time and the effect added data can be acquired from the accompaniment control unit 201b (Yes in step S17), the setting reflection unit 201c receives the pitch information, velocity information, and so on. , and to instruct the sound source 204 to produce a sound based on the effect addition data (step S18).

これにより、右手で演奏された音に、当該時点における演奏状態を反映する効果が自動的に付与される。例えば、自動伴奏ループの終盤で盛り上げたい場面であれば、ブライトネスの数値を高めて高域を強調した音を出し、聴衆の気分を盛り上げるといった効果を期待できる。 As a result, the sound played with the right hand is automatically given an effect that reflects the playing state at that point in time. For example, if you want to liven up the scene at the end of an auto-accompaniment loop, you can expect the effect of increasing the brightness value to produce a sound that emphasizes the high frequencies, thereby raising the mood of the audience.

なお、ステップS17の時点でのタイミングにおいて効果付加データが定義されていなければ(ステップS17でNo)、設定反映部201cは、音高情報およびベロシティ情報に基づく発音を音源204に指示する(ステップS19)。これにより、素のままの音が出力されることになる。 Note that if no additional effect data is defined at the timing of step S17 (No in step S17), the setting reflecting unit 201c instructs the sound source 204 to produce sound based on pitch information and velocity information (step S19). ). As a result, the raw sound is output.

以上述べたように実施形態では、音に効果を付与する設定データが予めROM202に記憶されている。そして、コード入力鍵盤101aにより操作される自動伴奏の再生ループの中で、自動伴奏の再生状態に応じた設定データを取得し、ユーザによるメロディー演奏鍵盤の101bの演奏で発せられる音に、取得された設定データを反映させるようにした。これにより、自動伴奏の状態によって、右手演奏の音色や演奏状態を自動的に変化させることが可能になる。 As described above, in the embodiment, setting data for imparting effects to sounds is stored in the ROM 202 in advance. Then, in the playback loop of the automatic accompaniment operated by the chord input keyboard 101a, setting data corresponding to the playback state of the automatic accompaniment is acquired, and the sound generated by the performance of the melody performance keyboard 101b by the user is acquired. setting data is reflected. This makes it possible to automatically change the timbre and performance state of the right-hand performance according to the state of the automatic accompaniment.

既存の電子鍵盤楽器では、自動伴奏の再生状態によらず、右手での演奏による発音は変化しなかった。もともと鍵盤楽器は、サックスやギター等の生楽器に比べて演奏の表現が少ないことは否めず、サンプリングキーボード等でサックスの音を弾くと単調な音になっていた。 In the existing electronic keyboard instruments, the pronunciation by playing with the right hand did not change regardless of the playback state of the automatic accompaniment. It is undeniable that keyboard instruments have less expressive performance than acoustic instruments such as saxophones and guitars, and playing a saxophone on a sampling keyboard or the like produces a monotonous sound.

ピアノやオルガンなどの鍵盤楽器は、その構造上、音を揺らすことが難しい。このため、演奏者には工夫が求められる。一方、ギターなどの弦楽器では、演奏者がノッてくるにつれ指板を抑える指に力がこもり、ピッチが甘くなることが知られている。さらには、ブラスセクションの楽器にも特有の発音機構がある。電子鍵盤楽器でこのような効果をシミュレートするにはボリュームペダルを細かく操作したり、モジュレーションホイールをジャストタイムで頻繁に操作するなど、演奏者は非常に面倒な操作を強いられていた。 Due to the structure of keyboard instruments such as pianos and organs, it is difficult to modulate the sound. For this reason, the performer is required to devise a method. On the other hand, it is known that in a stringed instrument such as a guitar, as the player strikes, the fingers holding the fingerboard become more forceful, resulting in a sweeter pitch. Furthermore, brass section instruments also have their own unique sounding mechanisms. In order to simulate such an effect with an electronic keyboard instrument, the performer was forced to perform extremely troublesome operations, such as operating the volume pedal in detail or operating the modulation wheel frequently at just the right time.

これに対し実施形態によれば、自動伴奏に応じた効果が、演奏音に自動的に付加される。つまりユーザの演奏するメロディに、伴奏に合う効果(エフェクト)を簡単に付けることができる。このように、自動伴奏の状態に応じて右手演奏の音色や演奏状態を変化させることで、例えば、自動伴奏が激しい演奏になっている時に右手演奏の音色も変化させ、豊かな演奏表現を実現することができる。これらのことから実施形態によれば、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することができる。 On the other hand, according to the embodiment, an effect corresponding to the automatic accompaniment is automatically added to the performance sound. In other words, effects that match the accompaniment can be easily added to the melody played by the user. In this way, by changing the timbre and performance state of the right-hand performance according to the state of the automatic accompaniment, for example, when the automatic accompaniment is playing intensely, the timbre of the right-hand performance also changes, realizing a rich performance expression. can do. For these reasons, according to the embodiments, it is possible to provide an electronic musical instrument, a control method, and a program capable of realizing rich performance expression.

[第1の変形例]
上記実施形態では、ブライトネスを設定データ(エモーショナルデータ)の活用例として説明した。第1の変形例では、設定データでポルタメントを制御することについて説明する。
図12は、ポルタメントについて説明するための図である。ポルタメントとは、音の高さが変化する速度を表す指標であり、いわゆるグリッサンド奏法とは区別して以下に説明する。ポルタメントは、パラメータとしてのポルタメントタイムを指定することでかかり具合を調節できる。ポルタメントタイムは、鳴っている音の高さが、第1の音高から第2の音高に連続的に変化する速度を示す指標である。つまり、押鍵されてからその鍵に対応する音高の音が発音されるまでに、前の音の音高からの変化に要する時間が、ポルタメントタイムである。
[First modification]
In the above embodiment, brightness is described as an example of utilization of setting data (emotional data). In the first modified example, controlling portamento with setting data will be described.
FIG. 12 is a diagram for explaining portamento. Portamento is an index representing the speed at which the pitch of a sound changes, and will be described below separately from the so-called glissando rendition. Portamento can be adjusted by specifying the portamento time as a parameter. The portamento time is an index that indicates the speed at which the pitch of a sounded note changes continuously from the first pitch to the second pitch. In other words, the portamento time is the time required for the pitch of the previous sound to change from when the key is pressed until the sound of the pitch corresponding to that key is produced.

図12(a)の設定ではポルタメントタイムが短く(ポルタメントタイム=5)、例えばC鍵が押された時(C鍵が押鍵されたタイミングを一点鎖線で示す)、直前のGから急速にC音の発音に至る。このような設定は、チェンバロや琴などの撥弦楽器の音を表現するのに向いている。 In the setting of FIG. 12(a), when the portamento time is short (portamento time=5), for example, when the C key is pressed (the timing at which the C key is pressed is indicated by the one-dot chain line), the previous G changes rapidly to C. leading to the pronunciation of sounds. Such settings are suitable for expressing the sound of plucked string instruments such as harpsichords and kotos.

図12(b)の設定ではポルタメントタイムが比較的長く(ポルタメントタイム=95)、G音からC音への変化は緩やかである。このような設定は、例えばギターのチョーキング奏法や音のピッチの変化を表現するのに向いている。特に、アコースティック楽器では、演奏が盛り上がると音のピッチが甘くなる(暴れる)ことがある。第1の変形例によれば、ポルタメントタイムを変更することで、そのような演奏状態を自動的にシミュレートすることができる。 In the setting of FIG. 12(b), the portamento time is relatively long (portamento time=95), and the change from G note to C note is gradual. Such a setting is suitable, for example, for expressing a choking style of playing a guitar or changing the pitch of a sound. In particular, with acoustic instruments, the pitch of the sound may become sweet (violent) when the performance becomes lively. According to the first modification, such a performance state can be automatically simulated by changing the portamento time.

図13は、ROM202に記憶される設定データの他の例を示す図である。図9のブライトネスと同様に、例えば0~127の範囲で設定可能なポルタメントタイムが、効果付加データとして、タイミングに対応付けて設定される。1小節目の後半でポルタメントタイムを伸ばして盛り上げ、2小節目の後半でポルタメントタイムをさらに伸ばして大きく盛り上げようとする、作曲者の意図が伺える。 FIG. 13 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Portamento time, which can be set in the range of 0 to 127, for example, is set in association with the timing as effect addition data in the same manner as the brightness in FIG. In the second half of the first bar, the portamento time is extended to make it lively, and in the second half of the second bar, the portamento time is further extended to make it louder.

このように第1の変形例では、自動伴奏の状態とともにポルタメントを自動的に変えられるので、例えば演奏者のノリを簡単に表現することができる。 As described above, in the first modification, the portamento can be automatically changed along with the state of the automatic accompaniment, so that, for example, the rhythm of the performer can be easily expressed.

[第2の変形例]
以上の説明では、設定データとして、楽音に音響効果を付加するための効果付加データを例に採り説明した。第2の変形例では、設定されている第1音色を第2音色に変更するための音色変更データを、設定データの一例として説明する。音色変更データは、例えばMIDIメッセージに含まれるプログラムナンバー(音色番号)である。音色の変更を指示するには、音色変更のためのプログラムチェンジを音源204に与えればよい。ここでは、音色としてサックスを想定する。
[Second modification]
In the above explanation, the effect adding data for adding acoustic effects to musical tones has been taken as an example of the setting data. In the second modification, timbre change data for changing the set first timbre to the second timbre will be described as an example of setting data. The timbre change data is, for example, a program number (timbre number) included in a MIDI message. In order to instruct the change of timbre, a program change for changing the timbre should be given to the tone generator 204 . Here, a saxophone is assumed as the timbre.

図14は、ROM202に記憶される設定データの他の例を示す図である。レガート、通常、およびブローの3通りの音色変化が、タイミングごとに、効果付加データとして設定される。各小節の前半ではレガート演奏で穏やかに、後半では徐々にテンションを上げ、2小節目の後半でブロー奏法により大きく盛り上げようとする、作曲者の意図が伺える。 FIG. 14 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Three types of timbre changes, legato, normal, and blow, are set as effect addition data for each timing. The first half of each bar is played legato calmly, the second half gradually raises the tension, and the latter half of the second bar is played with a blow technique, which shows the composer's intention.

[第3の変形例]
第3の変形例では、メロディ入力鍵盤101bの演奏により指定される第1音量を第2音量に変更するための音量変更データを、設定データの一例として説明する。
[Third Modification]
In the third modification, volume change data for changing the first volume specified by playing the melody input keyboard 101b to the second volume will be described as an example of setting data.

図15は、ROM202に記憶される設定データの他の例を示す図である。ここでは、検出されたベロシティをさらに微調整するための数値が、タイミングごとに、効果付加データとして設定される。1小節目の後半では演奏者の押鍵よりも大きな音で鳴らし、次に抑えめにして、2小節目の後半でより大きな音で盛り上げようとする、作曲者の意図が伺える。 FIG. 15 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Here, a numerical value for finely adjusting the detected velocity is set as effect addition data for each timing. In the latter half of the first bar, the sound is louder than the player's key presses, then it is suppressed, and in the latter half of the second bar, the louder sound is intended to excite the music.

[第4の変形例]
第4の変形例では、メロディ入力鍵盤101bの演奏により指定される第1音高を第2音高に変更するための音高変更データを、設定データの一例として説明する。音高を変更するには、音源204にプログラムチェンジを送ればよい。
[Fourth Modification]
In the fourth modification, pitch change data for changing the first pitch specified by playing the melody input keyboard 101b to the second pitch will be described as an example of setting data. To change the pitch, a program change should be sent to the tone generator 204 .

図16は、ROM202に記憶される設定データの他の例を示す図である。例えば協和音程である完全5度上の音を付加するための数値が、タイミングごとに、効果付加データとして設定される。パイプオルガンのストップ(音栓)にはこの種の効果を狙ったものが知られており、演奏された音と5度上の音とをミックスすることで独特の効果を醸し出すことができる。もちろん、3度上、4度上、6度下の音などを発音させることもできる。 FIG. 16 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. For example, a numerical value for adding a perfect fifth above the consonant interval is set as effect addition data for each timing. It is known that pipe organ stops (sound plugs) aim for this kind of effect, and by mixing the played sound with the fifth higher sound, a unique effect can be produced. Of course, it is also possible to produce sounds such as thirds above, fourths above, and sixths below.

[第5の変形例]
第5の変形例では、エフェクトデータ(パラメータ)を変更するためのコントロールチェンジデータを、設定データの一例として説明する。
[Fifth Modification]
In the fifth modification, control change data for changing effect data (parameters) will be described as an example of setting data.

図17は、ROM202に記憶される設定データの他の例を示す図である。ディレイタイムは、エフェクター212(図2)に含まれるディジタルディレイのパラメータの一つである。ここでは、ディレイタイムを指定するための数値が、タイミングごとに、効果付加データとして設定される。各小節の後半で短めのディレイ(ショートディレイ)をかけ、2小節目では1小節目よりも長いディレイで盛り上げようとする、作曲者の意図が伺える。なお、ディレイにはもう一つのパラメータとしてフィードバックがある。これも同様に、効果付加データとして数値で指定することができる。 FIG. 17 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Delay time is one of the parameters of the digital delay included in effector 212 (FIG. 2). Here, a numerical value for designating the delay time is set as effect addition data for each timing. You can see the composer's intention to apply a short delay in the latter half of each bar, and to liven up the second bar with a longer delay than the first bar. Another parameter of the delay is feedback. This can also be specified numerically as effect addition data.

[第6の変形例]
第6の変形例では、検出されたコードに応じて設定データを変更することについて説明する。つまり効果付加データは、上記で説明したようにタイミングではなく、コード種に対して設定される。ここでは、コード種に応じてブライトネスを操作する例について説明する。
[Sixth Modification]
A sixth modification describes changing the setting data according to the detected code. That is, the effect addition data is set for the code type, not for the timing as described above. Here, an example of manipulating the brightness according to the code type will be described.

図18は、ROM202に記憶される設定データの他の例を示す図である。ここではM,m,7th,m7,m7♭5,7sus4,dim7,augの8通りのコード種に対して、ブライトネスを指定する数値が効果付加データとして設定される。メジャーコードを基準として、マイナーコードではブライトネスを甘めにし、テンションコードではブライトネスを高くして聴衆の耳を刺激するといった、設計者の意図が伺える。 FIG. 18 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Here, numerical values specifying brightness are set as effect addition data for eight chord types of M, m, 7th, m7, m7♭5, 7sus4, dim7, and aug. Based on the major chords, the brightness of the minor chords is softened and the tension chords are raised to stimulate the listener's ears.

第6の変形例では、伴奏制御部201b(図3)により決定されたコードタイプ値を設定反映部201cに渡し、設定反映部201cにより、コードタイプ値に対応する効果付加データを図18の設定データから取得する。そして設定反映部201cにより、設定データを反映するためのMIDIメッセージを作成して、音源204に渡すようにする。 In the sixth modification, the chord type values determined by the accompaniment control section 201b (FIG. 3) are transferred to the setting reflecting section 201c, and the setting reflecting section 201c sets the effect addition data corresponding to the chord type values as shown in FIG. Get from data. Then, the setting reflecting unit 201 c creates a MIDI message for reflecting the setting data and transfers it to the tone generator 204 .

なお、コードネームそのものでなく、曲の調におけるコードの役割(I,IV,Vあるいはその代理コードなど)に応じて効果付加データを選択することも可能である。多くの場合、I→IV→Vとコードが進行するにつれ、効果付加データは、よりエモーショナルになるように設定される。 It is also possible to select the effect addition data according to the role of the chord (I, IV, V or their substitute chords, etc.) in the key of the song, instead of the chord name itself. In many cases, as the chord progresses from I→IV→V, the effect addition data is set to become more emotional.

[第7の変形例]
以上の説明では、設定データは自動伴奏データと一体的に、予め固定的に設定されていることが想定される。第7の変形例では、自動伴奏の進行とともに、設定データがダイナミックに変更される。
[Seventh Modification]
In the above explanation, it is assumed that the setting data is fixedly set in advance integrally with the automatic accompaniment data. In the seventh modification, the setting data is dynamically changed as the automatic accompaniment progresses.

第7の変形例では、伴奏のバリエーションによって設定データを変更することについて説明する。つまり効果付加データは、伴奏のバリエーションに対して設定される。つまり、エモーショナル度合いを伴奏の内容に応じて変化させるように、効果付加データを設定する。例えば拍頭にエモーショナル度合いが高く、後半になれば低くなるように、効果付加データを設定することができる。ここでは、伴奏内容に応じてブライトネスを操作する例について説明する。 In the seventh modified example, changing the setting data according to variations of accompaniment will be described. That is, the effect addition data is set for variations of accompaniment. That is, the effect addition data is set so as to change the emotional degree according to the contents of the accompaniment. For example, effect addition data can be set so that the degree of emotionality is high at the beginning of the beat and low in the second half. Here, an example of operating the brightness according to the contents of the accompaniment will be described.

図19は、ROM202に記憶される設定データの他の例を示す図である。イントロ、ノーマル、バリエーション1~5、およびアウトロの各伴奏内容に対して、ブライトネスを指定する数値が効果付加データとして設定される。イントロではやや盛り上げ、ノーマルでは通常、バリエーションの数字が増えるほどに徐々に盛り上げ、バリエーション5で最高潮に達し、アウトロでやや盛り上げて終わるといった、作曲者の意図が伺える。 FIG. 19 is a diagram showing another example of setting data stored in the ROM 202. As shown in FIG. Numerical values specifying brightness are set as effect addition data for each accompaniment content of intro, normal, variations 1 to 5, and outro. You can see the composer's intention that the intro is slightly lively, and in normal mode, the more the number of variations increases, the more the song gradually builds up.

このほか、通常の伴奏再生では効果付加データを抑制し(エモーショナルデータ低め)、フィル・インに入ると効果付加データを高く(エモーショナルデータ高め)設定するようにしてもよい。エモーショナルデータが高いと、音色が明るめになり、エモーショナルデータが低いと音色が暗めになる。 In addition, the effect addition data may be suppressed (lower emotional data) during normal accompaniment playback, and set higher (higher emotional data) when entering a fill-in. High Emotional Data results in a brighter timbre, while low Emotional Data results in a darker timbre.

あるいは、ループの再生回数が増えれば増えるほど、設定データがエモーション度合いを増すようにインクリメントされても良い。このほか、曲のジャンル、伴奏のジャンル、リズムの種類(8/16ビート、シャッフル、サンバなど)に応じて効果付加データを変化させてももちろん良い。 Alternatively, the setting data may be incremented so as to increase the degree of emotion as the number of times the loop is played increases. In addition, it is of course possible to change the effect addition data according to the genre of music, the genre of accompaniment, and the type of rhythm (8/16 beat, shuffle, samba, etc.).

以上述べたように実施形態、および各変形例によれば、より豊かな演奏表現を実現し得る電子楽器、制御方法およびプログラムを提供することができる。また、左手の押鍵が右手の演奏に影響を与えるという、プレイヤーにとっては未体験の演奏を実現することができる。 As described above, according to the embodiment and each modified example, it is possible to provide an electronic musical instrument, a control method, and a program capable of realizing richer performance expressions. In addition, it is possible to realize a performance that the player has never experienced before, in which key depression with the left hand affects performance with the right hand.

なお、この発明は上記実施の形態および変形例に限定されるものではない。
例えば、音源204の機能を、CPU201の演算リソースを利用するソフトウェアとして実装することも可能である。また、MIDIメッセージでなく、独自の規格に基づく制御メッセージにより音源204を制御することももちろん可能であるし、音源204がMIDI規格に準拠することも、必須ではない。
また、実施形態では、音源204に指示を与えて楽音を変化させる形態について説明した。これに限らず、楽音は、エフェクター212を制御することによっても変化させることができる。
また、音の表現に影響する指標としては上記に挙げたもののほか、サステイン、デチューン、アタック、ビブラートの速度や幅、細かさなど、さらに多様なものがあり、設定データによりこれらを制御することももちろん可能である。
It should be noted that the present invention is not limited to the above embodiments and modifications.
For example, it is possible to implement the function of the sound source 204 as software that uses the computing resources of the CPU 201 . Moreover, it is of course possible to control the sound source 204 not by MIDI messages but by control messages based on its own standard, and it is not essential that the sound source 204 comply with the MIDI standards.
Also, in the embodiment, a mode in which an instruction is given to the sound source 204 to change the musical sound has been described. Not limited to this, the musical tone can also be changed by controlling the effector 212 .
In addition to the indicators mentioned above, there are various indicators that affect the expression of sound, such as sustain, detune, attack, vibrato speed, width, and detail, and these can be controlled by setting data. Of course it is possible.

結局のところ、再生される自動伴奏データに少なくとも対応づけられる設定データに従って、ユーザによる演奏操作子への演奏操作に応じて発音される演奏音に、何らかの変化が加えられればよい。すなわち本発明は、上述のような具体的な実施形態に限定されるものではなく、本発明の技術的範囲には、本発明の目的が達成される範囲での様々な変形や改良などが含まれるものであり、そのことは当業者にとって特許請求の範囲の記載から明らかである。 Ultimately, it is sufficient that the performance sounds produced in response to the user's performance operations on the performance operators are changed in accordance with at least the setting data associated with the reproduced automatic accompaniment data. That is, the present invention is not limited to the specific embodiments as described above, and the technical scope of the present invention includes various modifications and improvements within the scope of achieving the object of the present invention. This is obvious to those skilled in the art from the description of the claims.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
<請求項1>
音源と、
プロセッサと、
を具備し、前記プロセッサは、
自動伴奏パターンに応じた伴奏音の発音を前記音源に指示し、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示する、
電子楽器。
<請求項2>
演奏に先立って予め前記設定データを記憶するメモリ、をさらに具備し、
前記プロセッサは、前記メモリに記憶された前記設定データに基づく設定を前記楽音に反映する、請求項1に記載の電子楽器。
<請求項3>
前記設定データは、決定された前記自動伴奏パターンの再生開始タイミングから再生終了タイミングまでの間の少なくともいずれかのタイミングに対応付けられる、請求項1または2に記載の電子楽器。
<請求項4>
前記設定データは、前記楽音に、音響効果を付加するための効果付加データ、設定されている第1音色を第2音色に変更するための音色変更データ、前記ユーザ操作により指定される第1音量を第2音量に変更するための音量変更データ、および、前記ユーザ操作により指定される第1音高を第2音高に変更するための音高変更データ、のうち少なくともいずれか1つを含む、請求項1乃至3のいずれかに記載の電子楽器。
<請求項5>
コード入力鍵盤と、前記コード入力鍵盤よりも高音側に設けられるメロディ入力鍵盤と、を含む鍵盤を備え、
前記プロセッサは、
前記コード入力鍵盤への第1ユーザ操作に基づいて、複数の自動伴奏パターンのなかから自動伴奏パターンを決定し、
前記メロディ入力鍵盤への第2ユーザ操作に基づいて、指定された楽音の音高に前記設定データに基づく設定を反映させる、請求項1乃至4のいずれかに記載の電子楽器。
<請求項6>
前記プロセッサは、
前記第1ユーザ操作に基づいて、ルート値と、コードタイプ値と、を決定し、
決定された前記ルート値と、前記コードタイプ値と、に基づいて、発音させる前記自動伴奏パターンを前記複数の自動伴奏パターンのなかから決定する、請求項5に記載の電子楽器。
<請求項7>
電子楽器のコンピュータに、
自動伴奏パターンに応じた伴奏音の発音を音源に指示させ、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示させる、
制御方法。
<請求項8>
電子楽器のコンピュータに、
自動伴奏パターンに応じた伴奏音の発音を音源に指示させ、
ユーザ操作により指定された音高の楽音に、前記自動伴奏パターンに対応する設定データに基づく設定を反映させて発音するように前記音源に指示させる、
プログラム。
The invention described in the scope of claims originally attached to the application form of this application is additionally described below. The claim numbers of the claims described in the supplementary notes are as in the claims originally attached to the request of this application.
<Claim 1>
sound source and
a processor;
wherein the processor comprises:
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch designated by a user's operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
electronic musical instrument.
<Claim 2>
further comprising a memory for storing the setting data in advance prior to performance,
2. The electronic musical instrument according to claim 1, wherein said processor reflects settings based on said setting data stored in said memory in said musical tones.
<Claim 3>
3. The electronic musical instrument according to claim 1, wherein said setting data is associated with at least one of timings between the determined playback start timing and playback end timing of said automatic accompaniment pattern.
<Claim 4>
The setting data includes effect addition data for adding a sound effect to the musical tone, tone color change data for changing the set first tone color to a second tone color, and a first sound volume specified by the user operation. at least one of volume change data for changing to a second volume and pitch change data for changing the first pitch specified by the user operation to a second pitch The electronic musical instrument according to any one of claims 1 to 3.
<Claim 5>
a keyboard including a chord input keyboard and a melody input keyboard provided on the higher tone side than the chord input keyboard;
The processor
determining an automatic accompaniment pattern from among a plurality of automatic accompaniment patterns based on a first user operation on the chord input keyboard;
5. The electronic musical instrument according to any one of claims 1 to 4, wherein the setting based on the setting data is reflected in the pitch of the designated musical tone based on the second user's operation on the melody input keyboard.
<Claim 6>
The processor
determining a root value and a chord type value based on the first user operation;
6. The electronic musical instrument according to claim 5, wherein the automatic accompaniment pattern to be sounded is determined from among the plurality of automatic accompaniment patterns based on the determined root value and chord type value.
<Claim 7>
to the computer of the electronic musical instrument,
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch specified by a user operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
control method.
<Claim 8>
to the computer of the electronic musical instrument,
instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern;
instructing the sound source to produce musical tones of a pitch specified by a user operation by reflecting settings based on setting data corresponding to the automatic accompaniment pattern;
program.

3…記憶装置
4…MIDI装置
100…デジタルキーボード
101…鍵盤
101a…コード入力鍵盤
101b…メロディ入力鍵盤
102…スイッチパネル
103…スイッチパネル
200…制御システム
201…CPU
201a…コード検出部
201b…伴奏制御部
201c…設定反映部
202…ROM
203…RAM
204…音源
206…キースキャナ
207…LEDコントローラ
208…LCDコントローラ
209…システムバス
210…タイマ
211…デジタルアナログコンバータ
212…エフェクター
214…アンプ
215…MIDIインタフェース
300…音源システム
400…サウンドシステム
500…プログラム
a1~an…自動伴奏データ
b1~bm…設定データ。
3 Storage device 4 MIDI device 100 Digital keyboard 101 Keyboard 101a Chord input keyboard 101b Melody input keyboard 102 Switch panel 103 Switch panel 200 Control system 201 CPU
201a... Chord detection section 201b... Accompaniment control section 201c... Setting reflecting section 202... ROM
203 RAM
204 Sound source 206 Key scanner 207 LED controller 208 LCD controller 209 System bus 210 Timer 211 Digital-to-analog converter 212 Effector 214 Amplifier 215 MIDI interface 300 Sound system 400 Sound system 500 Program a1~ an Automatic accompaniment data b1 to bm Setting data.

Claims (8)

コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、
処理を実行する電子楽器。
sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern ;
A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. do,
An electronic instrument that performs processing.
前記設定データは、The setting data is
前記メロディ入力鍵盤における前記第2ユーザ操作による前記メロディ音に音響効果を付加するための効果付加データ、effect addition data for adding a sound effect to the melody sound by the second user's operation on the melody input keyboard;
設定されている前記メロディ音の第1音色を第2音色に変更するための音色変更データ、timbre change data for changing the set first timbre of the melody sound to a second timbre;
前記メロディ入力鍵盤における前記第2ユーザ操作により指定される第1音量を第2音量に変更するための音量変更データ、volume change data for changing the first volume specified by the second user operation on the melody input keyboard to the second volume;
前記メロディ入力鍵盤における前記第2ユーザ操作により指定される第1音高を第2音高に変更するための音高変更データ、pitch change data for changing the first pitch specified by the second user operation on the melody input keyboard to a second pitch;
のうち少なくともいずれか1つを含む、請求項1に記載の電子楽器。2. The electronic musical instrument according to claim 1, comprising at least one of:
前記第1ユーザ操作に基づいて、ルート値と、コードタイプ値と、を決定し、determining a root value and a chord type value based on the first user operation;
決定された前記ルート値と、前記コードタイプ値と、に基づいて、発音させる前記自動伴奏パターンの発音態様を決定する請求項1又は2に記載の電子楽器。3. The electronic musical instrument according to claim 1, wherein a pronunciation mode of the automatic accompaniment pattern to be sounded is determined based on the determined root value and the chord type value.
前記ノート情報及び前記ベロシティ情報に応じた前記ルート値及び前記コードタイプ値を取得し、obtaining the root value and the chord type value according to the note information and the velocity information;
前記ルート値及び前記コードタイプ値に応じた前記設定データを決定する請求項3に記載の電子楽器。4. An electronic musical instrument according to claim 3, wherein said setting data is determined according to said root value and said chord type value.
前記処理を実行するプロセッサと、a processor that performs the processing;
前記第2ユーザ操作に応じて前記プロセッサにより指示されたメロディ音を発音させる音源と、a sound source for producing a melody sound instructed by the processor in response to the second user operation;
ユーザによる演奏開始前から予め、前記自動伴奏パターンのデータを記憶しているメモリと、a memory storing the automatic accompaniment pattern data in advance before the user starts playing;
を備える、請求項1乃至4のいずれか一項に記載の電子楽器。5. The electronic musical instrument according to any one of claims 1 to 4, comprising:
前記コード入力鍵盤と、前記コード入力鍵盤よりも高音側に設けられる前記メロディ入力鍵盤と、を含む鍵盤を備え、a keyboard including the chord input keyboard and the melody input keyboard provided on the higher tone side than the chord input keyboard;
前記プロセッサは、The processor
前記コード入力鍵盤への前記第1ユーザ操作に基づいて、前記自動伴奏パターンに応じた伴奏音の発音を前記音源に指示し、instructing the sound source to produce accompaniment sounds corresponding to the automatic accompaniment pattern based on the first user's operation on the chord input keyboard;
前記メロディ入力鍵盤への前記第2ユーザ操作に基づいて指定された音高に応じたメロディ音を、前記設定データに基づく設定に基づいて発音するように前記音源に指示する、請求項5に記載の電子楽器。6. The sound source according to claim 5, wherein said sound source is instructed to produce a melody sound corresponding to a pitch designated based on said second user's operation on said melody input keyboard based on settings based on said setting data. electronic musical instrument.
電子楽器が、electronic musical instruments
コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し、sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern;
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、処理を実行する制御方法。A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. A control method for executing a process of changing, based on the first setting, the pronunciation state of melody tones to be pronounced in response to the second user operation, when a first setting for changing the pronunciation state of melody tones by an operation is included. .
電子楽器のコンピュータに、to the computer of the electronic musical instrument,
コード入力鍵盤における第1ユーザ操作に基づいて、自動伴奏パターンに応じた伴奏音を順次発音させるとともに前記自動伴奏パターンとは別の設定データを設定し、sequentially generating accompaniment tones corresponding to an automatic accompaniment pattern based on a first user operation on the chord input keyboard and setting setting data different from the automatic accompaniment pattern;
前記設定データが、前記第1ユーザ操作によって押鍵された鍵のノート情報及びベロシティ情報に基づく第1設定であって、前記自動伴奏パターンの第1タイミングに対応する、メロディ入力鍵盤における第2ユーザ操作によるメロディ音の発音状態を変更する第1設定を含む場合は、前記第1タイミングに対応し、前記第2ユーザ操作に応じて発音させるメロディ音の発音状態を前記第1設定に基づいて変更する、A second user on a melody input keyboard, wherein said setting data is a first setting based on note information and velocity information of a key pressed by said first user operation and corresponds to a first timing of said automatic accompaniment pattern. When the first setting for changing the pronunciation state of the melody tones by the operation is included, the pronunciation state of the melody tones to be pronounced according to the second user operation is changed based on the first setting corresponding to the first timing. do,
処理を実行させるプログラム。A program that causes an action to take place.
JP2019173111A 2019-09-24 2019-09-24 Electronic musical instrument, control method and program Active JP7263998B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019173111A JP7263998B2 (en) 2019-09-24 2019-09-24 Electronic musical instrument, control method and program
CN202010828464.7A CN112634847A (en) 2019-09-24 2020-08-18 Electronic musical instrument, control method, and storage medium
JP2023063797A JP2023076772A (en) 2019-09-24 2023-04-11 Electronic musical instrument, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173111A JP7263998B2 (en) 2019-09-24 2019-09-24 Electronic musical instrument, control method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023063797A Division JP2023076772A (en) 2019-09-24 2023-04-11 Electronic musical instrument, control method, and program

Publications (3)

Publication Number Publication Date
JP2021051152A JP2021051152A (en) 2021-04-01
JP2021051152A5 JP2021051152A5 (en) 2021-07-26
JP7263998B2 true JP7263998B2 (en) 2023-04-25

Family

ID=75157743

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019173111A Active JP7263998B2 (en) 2019-09-24 2019-09-24 Electronic musical instrument, control method and program
JP2023063797A Pending JP2023076772A (en) 2019-09-24 2023-04-11 Electronic musical instrument, control method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023063797A Pending JP2023076772A (en) 2019-09-24 2023-04-11 Electronic musical instrument, control method, and program

Country Status (2)

Country Link
JP (2) JP7263998B2 (en)
CN (1) CN112634847A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259155A (en) 1999-03-05 2000-09-22 Kawai Musical Instr Mfg Co Ltd Automatic accompaniment device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3005986B2 (en) * 1988-12-15 2000-02-07 カシオ計算機株式会社 Automatic accompaniment device
JP2529227Y2 (en) * 1991-10-04 1997-03-19 カシオ計算機株式会社 Electronic musical instrument
JPH05119773A (en) * 1991-10-28 1993-05-18 Matsushita Electric Ind Co Ltd Automatic accompaniment device
US5850051A (en) * 1996-08-15 1998-12-15 Yamaha Corporation Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters
JP6040809B2 (en) * 2013-03-14 2016-12-07 カシオ計算機株式会社 Chord selection device, automatic accompaniment device, automatic accompaniment method, and automatic accompaniment program
JP6497404B2 (en) * 2017-03-23 2019-04-10 カシオ計算機株式会社 Electronic musical instrument, method for controlling the electronic musical instrument, and program for the electronic musical instrument
JP7143576B2 (en) * 2017-09-26 2022-09-29 カシオ計算機株式会社 Electronic musical instrument, electronic musical instrument control method and its program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259155A (en) 1999-03-05 2000-09-22 Kawai Musical Instr Mfg Co Ltd Automatic accompaniment device

Also Published As

Publication number Publication date
JP2023076772A (en) 2023-06-01
JP2021051152A (en) 2021-04-01
CN112634847A (en) 2021-04-09

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
US8314320B2 (en) Automatic accompanying apparatus and computer readable storing medium
JP3900188B2 (en) Performance data creation device
JP3915807B2 (en) Automatic performance determination device and program
JP5897805B2 (en) Music control device
JP7263998B2 (en) Electronic musical instrument, control method and program
JP3722005B2 (en) Electronic music apparatus, control method therefor, and program
JP3705144B2 (en) Performance data change processing device
JP3618203B2 (en) Karaoke device that allows users to play accompaniment music
JP3900187B2 (en) Performance data creation device
JP3613062B2 (en) Musical sound data creation method and storage medium
JP7404737B2 (en) Automatic performance device, electronic musical instrument, method and program
JP2001350471A (en) Device for processing performance data expression making, and recording medium therefor
JP7327434B2 (en) Program, method, information processing device, and performance data display system
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP4244504B2 (en) Performance control device
JP3235160B2 (en) Music control device
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP3674469B2 (en) Performance guide method and apparatus and recording medium
JP3226268B2 (en) Concert magic automatic performance device
JP2008058796A (en) Playing style deciding device and program
JP3870948B2 (en) Facial expression processing device and computer program for facial expression
JP2004170840A (en) Musical performance controller and program for musical performance control
JP3499672B2 (en) Automatic performance device
JP2023133602A (en) Program, method, information processing device and image display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7263998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150