JP3862988B2 - Electronic musical instruments - Google Patents

Electronic musical instruments Download PDF

Info

Publication number
JP3862988B2
JP3862988B2 JP2001313383A JP2001313383A JP3862988B2 JP 3862988 B2 JP3862988 B2 JP 3862988B2 JP 2001313383 A JP2001313383 A JP 2001313383A JP 2001313383 A JP2001313383 A JP 2001313383A JP 3862988 B2 JP3862988 B2 JP 3862988B2
Authority
JP
Japan
Prior art keywords
performance
key
melody
accompaniment
automatic performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001313383A
Other languages
Japanese (ja)
Other versions
JP2003122354A (en
Inventor
晃 河合
亨 鈴木
秀幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2001313383A priority Critical patent/JP3862988B2/en
Publication of JP2003122354A publication Critical patent/JP2003122354A/en
Application granted granted Critical
Publication of JP3862988B2 publication Critical patent/JP3862988B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自動演奏情報に基づき演奏が可能な電子楽器に関する。
【0002】
【従来の技術】
従来自動演奏系乃至自動伴奏系の電子楽器には、2以上のパート間でシンクロナイズド演奏が可能なものがある。例えば、メロディトラック(パート)と伴奏トラック(パート)の両データが予め記憶されている自動演奏情報(曲データ)に基づき、メロディパートを演奏者が演奏することで、伴奏パートが、演奏者の演奏操作と同時にスタートするシンクロスタートなどの機能を有するものなどがある。
【0003】
さらに進んだ構成として、特段の操作を必要とせずに、初心者が簡単に演奏が楽しめるものとして、押鍵などの演奏操作をするタイミング毎に、自動演奏情報中の対応する楽音を発音せしめ、該自動演奏情報の演奏を進行させる機能を有するものもある。このような半自動演奏機能を有する電子鍵盤楽器では、任意の鍵盤をメロディのタイミングに合わせてたたくだけで、演奏可能であり、誰でも簡単に演奏が楽しめるようになる。
【0004】
【発明が解決しようとする課題】
しかし、後者の構成のうち演奏操作による楽音も一緒に発音せしめることができる構成を有するものと、前者の構成は、メロディパートと伴奏パートのタイミングが完全に一致した自動演奏情報にしか適用できないと言う欠点がある。例えば後者の構成では、伴奏パートからスタートし前奏のはいる演奏情報を演奏する場合、最初の演奏操作(押鍵操作など)により伴奏パートの演奏が開始され、その際、上記演奏操作による直接の楽音が発生せしめられて、伴奏以外の楽音が鳴ってしまうため、奇異な感じの演奏になってしまうと言う問題があった。これは、前者の自動演奏情報に基づき2以上のパート間でシンクロナイズド演奏が可能な構成についても同じである。
【0005】
さらには単一パートでも最初に自動演奏をスタートさせ、途中からマニュアル演奏に変更するような演奏を行う場合でも、自動演奏をスタートさせるトリガーとなる演奏操作が必要であり、その場合に該演奏操作による直接の楽音が発生せしめられては、やはり奇異な感じの演奏になってしまう。
【0006】
本発明は、以上のような問題に鑑み創案されたもので、自動演奏情報に基づき演奏が可能な電子楽器で、所定の演奏操作を演奏開始のトリガーとする構成を提供し、もって自然な演奏ができるようにせんとするものである。
【0007】
【課題を解決するための手段】
そのため本発明の構成は、押鍵操作のタイミングおよびテンポに応じて自動演奏情報に基づく演奏を進行させる電子楽器において、自動演奏情報としてメロディパートと伴奏パートとが少なくとも備えられ、押鍵された鍵盤の楽音も同時に発生するモードであって、自動演奏情報の伴奏パートの演奏開始タイミングが、メロディパートの演奏タイミングより先の場合、最初の押鍵操作による楽音を発生させず、伴奏パートの楽音のみを発音させることを基本的特徴としている。
【0008】
上記構成によれば、最初の押鍵操作による直接の楽音の発生(押鍵操作したそのキーの楽音が鳴ることなど)がないため、最初の押鍵操作は、自動演奏情報に基づく伴奏パートの演奏開始のトリガーとして作用することになる。そのため、自動演奏情報に基づく演奏以外の楽音が、最初の押鍵操作の時点では、鳴ってしまうことがなくなり、自然な演奏ができるようになる。もちろん、次の押鍵操作で少なくとも直接の楽音を発生させること(押鍵操作したそのキーの楽音が鳴ること)で、途中からマニュアル演奏に変更するような演奏を行うことも可能となる。
【0009】
請求項2は、各パートの最初の演奏開始タイミングが異なり、どのパートの演奏開始タイミングが先か、自動演奏情報から検出する演奏制御手段(後述する段落番号0041参照)を備えたことを規定している。すなわち、請求項1の構成の場合に、どのパートから演奏を開始するのかを、自動演奏情報から演奏制御手段により自動的に検出させ(後述する段落番号0041参照)、最初の演奏操作のみで、該演奏操作による直接の楽音を発生させずに、先に演奏の開始されるパートの自動演奏が行われるようにすることになる。
【0012】
これらの構成により、最初の押鍵操作は、単に自動演奏情報に基づく伴奏パートの演奏開始のトリガーとして作用させることができ、奇異な楽音を発生させることはなくなるので、自然な演奏ができるようになる。
【0013】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。
図1は、本発明の一実施例にかかる演奏制御装置構成が搭載された電子オルガン100の外観構成を示す斜視図、図2は該電子オルガンの基本回路図、図3は本発明の機能ブロックを示すブロック図である。上記電子オルガン100には、押鍵するタイミング毎に、自動演奏情報として提供される曲データ中の対応する楽音を、該押鍵操作に合わせて発音せしめ、該曲データの演奏を進行させる半自動演奏機能が備えられている。
【0014】
上記電子オルガン100は、図2に示すように、システムバス110上に、CPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、キースキャン回路114aを介して接続された鍵盤部114、パネルスキャン回路115aを介して接続されたパネル操作部115、表示制御回路116aを介して接続された表示部116、FDD制御回路117aを介して接続されたFDD部117、音源による64チャンネル同時発音可能な楽音発生回路118、及びDSP効果付加回路119が、各接続されており、該システムバス110を通じてこれらのデバイスに各種命令やデータの受け渡しがなされる。また前記DSP効果付加回路119には、リバーブなどの効果付加された楽音をアナログに変換するD/A変換回路120と、それを増幅する増幅器及び外部に発音せしめるスピーカなどのサウンドシステム121が電気的に接続されている。
【0015】
上記CPU111は、前記ROM112のプログラムメモリ記憶部に記憶されている制御プログラムに従って、本発明構成を含む電子オルガン100の各部を制御するものであり、また上記プログラムメモリ記憶部に記憶されたアプリケーションプログラムを実行し、必要に応じて、RAM112を作業領域として使用し、さらにROM113に記憶された種々の固定データを使用しながらデータ処理を行う構成である。
【0016】
上記RAM112は、装置のステータス情報を記憶したり、CPU111の作業領域として使用されるものである。尚、当該電子オルガン100を制御するための各種レジスタやフラグ等は、RAM112に定義されており、このRAM112は、CPU111により、システムバス110を介してアクセスされる。
【0017】
上記ROM113は、上述のように、本電子オルガン100全体を制御するプログラムを格納している他、CPU111が使用する種々の固定データ(デモデータを含む)が記憶されている。尚、該ROM113は、後述する曲データ格納部10を構成している(後述するFDD部117は必要に応じて曲データ格納部10として機能することがある)。
【0018】
上記鍵盤部114は、電子オルガン100の鍵盤で構成されており、複数の鍵盤と、これらの押鍵や離鍵に連動して開閉する鍵盤スイッチからなる。この鍵盤部114とシステムバス110の間に介在するキースキャン回路114aは、鍵盤スイッチの状態を調べ、そのON/OFFを示す信号から鍵盤タッチの強さ(速さ)を示すタッチデータを生成すると共に、ON又はOFF情報とその鍵盤ナンバーを出力するものである。このON/OFF情報及び鍵盤ナンバー、タッチデータは、押鍵情報(マニュアルキー)として、システムバス110を介してCPU111に送られる。
【0019】
上記半自動演奏機能では、通常鍵盤部114の押鍵操作によって、押鍵するタイミング毎に、該鍵盤部114からこれらのデータが送出され、後述するようにして選択された自動演奏情報の曲データ(メロディ・伴奏キー)が、最初は曲データ格納部10に選択された曲データの一部として一緒に格納されている基本テンポ(デフォルトテンポ)で演奏され、その後(例えば2押鍵目から)後述するテンポ検出部13で検出されたテンポ(テンポ検出部13のテンポタイマに設定されたテンポ)に合わせて読み出されて、楽音として発音せしめられ、演奏が進行されることになる。従って上記半自動演奏機能で演奏されるメロディパートの音符分だけ、伴奏パートは自動演奏されることになり、メロディの音符間に存在する伴奏音符は全て1回の押鍵操作で自動演奏されることになる。
【0020】
本実施例では、このような半自動演奏機能が次の3つのモードとして採用されている。すなわち、▲1▼マジカルタクトモード(モードI):図4に示すように、一定間隔(図面では鍵盤を押すタイミングが等間隔で示されている)で鍵盤を押すことで演奏を進めるモードであり、演奏のテンポや音量は鍵盤を押すタイミングや強さで変えることができる。▲2▼マジカルメロディモード(モードII):図5に示すように、メロディのタイミングに合わせて鍵盤を押す(図面ではメロディパートに合わせて鍵盤を押すタイミングが示されている)ことによって伴奏がついてくるモードであり、同じく演奏のテンポや音量は鍵盤を押すタイミングや強さで変えることができる。▲3▼マジカルメロディ&キーモード(モードIII):上記マジカルメロディモードと同様に、メロディのタイミングに合わせて鍵盤を押すことによって伴奏がついてくるモードであるが、実際に押鍵された鍵盤の音も同時に鳴る。本実施例では、後にこの▲3▼マジカルメロディ&キーモード(モードIII)が選択されるものとして説明を行う。
【0021】
上記パネル操作部115は、電源スイッチ、音色選択スイッチなど各種スイッチ及び曲選択タッチパネル、モード選択タッチパネル、ボリューム可変器などが設けられている。このパネル操作部115とシステムバス110の間に介在する前記パネルスキャン回路115aは、上記パネル操作部115に設けられた各スイッチやタッチパネルのセット/リセット状態を調べ、ON状態になっているパネルスイッチデータを検出してCPU111に送出するものである。
【0022】
上記表示部116は、表示制御回路116aを介してシステムバス110につながれており、CPU111からの制御により、上記パネル操作部115の各種操作状態や、電子オルガン100の動作状態、後述する曲データ選択読出部11で読み出しが行われる曲のタイトルなどを表示する構成である。
【0023】
上記FDD部117は、本実施例ではフロッピーディスクドライブ(フロッピーは登録商標)で構成されており、FDD制御回路117aを介してシステムバス110につながれている。必要に応じてCPU111からの制御により、FDDに格納された演奏曲の曲データの読み書きが行われる。もちろんこのようなFDD構成ではなく、CD−ROMドライブや、種々のカード型記憶装置(フラッシュメモリカード、コンパクトフラッシュカード(コンパクトフラッシュは登録商標)、SDカード、メモリスティック、MO等)で構成しても良いことは言うまでもない。
【0024】
図3は、電子オルガン100において上記半自動演奏機能の実行される構成として組み込まれた本発明に係る構成の機能ブロック図である。この半自動演奏機能が実行される構成は、同図に示されるように、メロディパートと伴奏パートとに別れて、また基本テンポの情報も合わせ持った自動演奏のための曲データが格納された演奏情報格納手段たる曲データ格納部10と、指示に従って該曲データ格納部10に格納された曲データを選択すると共に、その曲データを所定のテンポで読み出して、出力する曲データ選択読出部11と、曲データ格納部10から選択された曲データを受け取り、そのメロディパートと伴奏パートの演奏開始タイミングを判断し、その結果によって最初の押鍵操作の押鍵情報に対応する楽音の発生を制御しながら、上記半自動演奏モードによる両パートの自動演奏を行う演奏制御部12と、キースキャン回路114aでスキャンされた鍵盤部114の押鍵情報からテンポ情報を検出するテンポ検出部13と、曲データ格納部10から読み出された曲データ(メロディキー及び伴奏キー)及び鍵盤部114で実際に押鍵されて得られた押鍵情報(マニュアルキー)を上記演奏制御部12から受けて各パート(楽音発生回路118の所定のチャンネル)に割り当てるキー&トーンアサイナ14とを有している。
【0025】
その他、本実施例では、キースキャン回路114aで鍵盤タッチの強さも検出され、押鍵情報の一部として出力されており、上記演奏制御部12では、検出された上記押鍵タッチの強さを、曲データ中の伴奏パートのベロシティ情報として反映させている。
【0026】
上記曲データ格納部10は、ROM113(又はFDD部117)で構成されている。そして自動演奏情報として、メロディパートと伴奏パート及び基本テンポ情報を含む曲データが複数格納されており、上記パネル操作部115で演奏制御部12及び曲データ選択読出部11を介して指示された曲データが読み出されるようになっている。尚、後述する図10及び図11のように、格納されている曲データには、メロディパートと伴奏パート間で演奏開始タイミングが同じものと、異なるものがある。
【0027】
上記曲データ選択読出部11は、CPU111で構成されており、所定のパネル操作によって後述する演奏制御部12から送られてくる曲データ選択指示により曲データ格納部10に格納された曲データを選択すると共に、該演奏制御部12からの指示により、その曲データを、基本テンポにて或いは後述するテンポ検出部13で検出されたテンポスピードにて読み出すためのアドレス情報を生成し、曲データ格納部10に出力する。
【0028】
上記演奏制御部12は、CPU111で構成されており、上述のように、曲データ格納部10から選択された曲データを受け取り、そのメロディパートと伴奏パートの演奏開始タイミングを判断し、メロディパートより伴奏パートの演奏開始タイミングが早い場合(前奏がある曲データの場合)、最初の押鍵操作の押鍵情報に対応する楽音を発生させず、上記半自動演奏モードによる演奏開始のトリガーとさせ、両パートの自動演奏を行う機能を有している。
【0029】
また該演奏制御部12は、パネル操作部115のパネル操作情報及び表示部116の表示状態を、パネルスキャン回路115a及び表示制御回路116aを介して制御すると共に、システムとしていずれかのモード(マジカルタクトモード(モードI)、マジカルメロディモード(モードII)、マジカルメロディ&キーモード(モードIII)、その他…)を選択し、更に曲の選択に関する指示を曲データ選択読出部11に送る制御を行う。
【0030】
他方パネル操作や曲データ中で指示された音色やボリューム情報を受けてトーン・ボリューム情報としてキー&トーンアサイナ14に供給すると共に、鍵盤部114の押鍵情報のうちキーナンバ及びベロシティデータをキー&トーンアサイナ14に送り、さらにパネル操作で設定されたリバーブパラメータに基づき、上記DSP効果付加回路119に該パラメータを供給する。
【0031】
加えて該演奏制御部12は、上記半自動演奏モードによる演奏の初期は、上記基本テンポに従って伴奏パートの自動演奏を行い、その後後述するテンポ検出部13で検出されたテンポ情報に補正し、上記半自動演奏モードによる伴奏パートの自動演奏を行う機能も有している。
【0032】
上記テンポ検出部13は、CPU111及びRAM112で構成されており、鍵盤部114の操作(押鍵)間隔に基づき、テンポスピードを検出し、前記曲データ選択読出部11に対し、曲データを読み出すスピードのデータを送る。
【0033】
上記キー&トーンアサイナ14は、CPU111で構成されており、通常のキーアサイナとほぼ同じ機能を有しているが、押鍵データ又は曲データを楽音発生回路118の所定のチャンネルに割り当てる際に、そのチャンネルで読み出すべき音色及び音量も、楽音発生回路118に指示する。
【0034】
以上のような実施例構成では、この電子オルガン100で演奏しようとする者が、電源をONにすると、図6のメイン処理ルーチンに示すように、電子オルガン100の電子回路の初期化が行われる(ステップS101)。そしてパネルスキャンがなされ(ステップS102)、該パネルスキャン結果に基づくイベント処理が行われる(ステップS103)。
【0035】
その際半自動演奏モードによるスタート/ストップイベントがあるか否かがチェックされ(ステップS104)、該イベントがあれば(ステップS104;Yes)、後述する半自動演奏処理▲1▼(半自動演奏モードのためのイニシャル処理)が実行される(ステップS105)。反対にそのようなイベントがなければ(ステップS104;No)、上記ステップS105の処理はジャンプされる。
【0036】
その後鍵盤部114のキースキャンが実行され(ステップS106)、キーオンイベントがあるか否かがチェックされる(ステップS107)。
【0037】
ここでキーオンイベントがなければ(ステップS107;No)、キーオフイベントがあるか否かがチェックされる(ステップS108)。キーオフイベントがあれば(ステップS108;Yes)、ノーマルの消音処理がなされ(ステップS109)、前記ステップS102に復帰する。またキーオフイベントがなければ(ステップS108;No)、そのままステップS102に復帰する。
【0038】
他方前記ステップS107でキーオンイベントがあれば(ステップS107;Yes)、STT(スタートストップ)フラグが1でRUNフラグが0にセットされているか否かがチェックされる(ステップS110)。STTフラグが1でRUNフラグが0にセットされていれば(ステップS110;Yes)、後述する半自動演奏処理▲2▼(伴奏パートが先になる場合の演奏処理)が実行され(ステップS111)、前記ステップS102に復帰する。
【0039】
他方前記ステップS110でSTTフラグが1でRUNフラグが0にセットされていなければ(ステップS110;No)、STTフラグ及びRUNフラグが共に1にセットされているか否かがチェックされる(ステップS112)。
【0040】
STTフラグ及びRUNフラグが共に1にセットされていれば(ステップS112;Yes)、後述する半自動演奏処理▲3▼(その後のキーオン処理)が実行され(ステップS113)、前記ステップS102に復帰する。反対にSTTフラグ及びRUNフラグが共に1にセットされていなければ(ステップS112;No)、ノーマルの発音処理がなされ(ステップS114)、その後ステップS102に復帰する。
【0041】
図7は、図6のステップS105で半自動演奏モードのイニシャル処理の行われる半自動演奏処理▲1▼の処理手順を示すフローチャートである。ここで前記演奏制御部12によるメロディパートと伴奏パートの演奏開始タイミングの判定がなされ、伴奏パートの演奏開始タイミングの方が先であれば、後述するように、ファーストキー(FSTKY)フラグを0に設定し、後述する図8に示すような演奏制御を行う。
【0042】
ここではまず半自動演奏モードのスタートオンイベントか否かがチェックされる(ステップS201)。
【0043】
半自動演奏モードのスタートオンイベントであれば(ステップS201;Yes)、▲1▼前記STTフラグが1にセットされ(半自動演奏処理モードのスタートを表すフラグのセット)、▲2▼曲データの中の最初に記憶されている音色・音量・テンポスピード(基本テンポ)の各データが読み出されて設定され、▲3▼バービートレジスタがクリアされ、▲4▼メロディパート及び伴奏パートの読み出し位置が最初にセットされる(ステップS202)。
【0044】
そして上記ステップS202の▲4▼で読み出し位置のセットされたメロディパート及び伴奏パートで、メロディパートの第1音よりも伴奏パートの第1音の方が先に発音されるか否かがチェックされる(ステップS203)。これは、前述のように、メロディのタイミングに合わせて鍵盤を押すことによって伴奏がついてくる半自動演奏モードにおいて、さらに実際に押鍵された鍵盤の音も同時に鳴るマジカルメロディ&キーモード(モードIII)が選択された際、伴奏パートからスタートし前奏のはいる曲データが選択された場合に、最初の押鍵操作により伴奏パートの演奏が開始された時に、上記演奏操作による直接の楽音が発生せしめられて、伴奏以外の楽音が鳴ってしまう問題を回避するためのチェックである。
【0045】
ここでメロディパートの第1音よりも伴奏パートの第1音の方が先に発音される場合には(ステップS203;Yes)、FSTKYフラグが0にセットされ(ステップS204)、メイン処理ルーチンに戻る。
【0046】
反対にメロディパートの第1音よりも伴奏パートの第1音の方が先に発音されることがない場合には(ステップS203;No)、FSTKYフラグが1にセットされ(ステップS205)、メイン処理ルーチンに戻る。
【0047】
他方前記ステップS201で半自動演奏モードのスタートオンイベントでなければ(ステップS201;No)、半自動演奏中であるか、すなわちRUNフラグが1であるか否かがチェックされる(ステップS206)。RUNフラグが1でなければ(ステップS206;No)、メイン処理ルーチンに戻る。
【0048】
またRUNフラグが1であれば(ステップS206;Yes)、半自動演奏モードのスタートオフイベントであるか否かがチェックされる(ステップS207)。
【0049】
ここで半自動演奏モードのスタートオフイベントでなければ(ステップS207;No)、メイン処理ルーチンに戻る。
【0050】
反対に半自動演奏モードのスタートオフイベントであれば(ステップS207;Yes)、▲1▼発音中の全ての音が消音され、▲2▼クロックカウンタが止められ、▲3▼RUNフラグが0にセットされ、▲4▼STTフラグが0にセットされる(ステップS208)。その後メイン処理ルーチンに戻る。
【0051】
図8は、図6のステップS111で半自動演奏モードの最初のキーオン処理が行われる半自動演奏処理▲2▼の処理手順を示すフローチャートである。すなわち、伴奏パートからスタートし前奏のはいる曲データが選択された際に、最初の押鍵操作により伴奏パートの演奏が開始された場合、上記押鍵操作による直接の楽音が発生せしめられて、伴奏以外の楽音が鳴ってしまう問題を回避する処理を行うためである。
【0052】
まず▲1▼クロックカウンタがスタートせしめられ、▲2▼RUNフラグが1にセットされる(ステップS301)。そしてFSTKYフラグが1であるか否かがチェックされる(ステップS302)。
【0053】
ここでFSTKYフラグが1でなければ(ステップS302;No)、伴奏パートからスタートし前奏のはいる曲データの半自動演奏処理において、最初の押鍵操作により伴奏パートの演奏が開始され、上記押鍵操作による直接の楽音を発生せしめ内容にする処理を行う必要がある。そのためまずFSTKYフラグが1にセットされ(ステップS303)、後述するステップS305にジャンプする。
【0054】
また上記ステップS302でFSTKYフラグが1であれば(ステップS302;Yes)、メロディパートと伴奏パートとが同時に演奏を開始し且つ押鍵に従った楽音発生が行われる上記マジカルメロディ&キーモード(モードIII)の処理が実行される。まず▲1▼キーオンに対応したマニュアルキーが発音され、▲2▼メロディパートの最初の音が読み出されて発音され、▲3▼メロディパートの読み出し位置が次の音にセットされる(ステップS304)。
【0055】
その後メロディパートの読み出し位置に対応した伴奏パートの読み出し位置まで伴奏パートの音が基本テンポスピードにて順次読み出されて発音(自動演奏)される(ステップS305)。その後メイン処理ルーチンに戻る。
【0056】
図9は、図6のステップS113で半自動演奏モードのその後のキーオン処理が行われる半自動演奏処理▲3▼の処理手順を示すフローチャートである。ここでは、テンポ検出部13で検出されたテンポスピードで、曲データ格納部10における曲データを読み出すためのアドレス情報が、前記曲データ選択読出部11において生成され、該アドレス情報に従って、対象となる曲データが曲データ格納部10から読み出され、出力されることになる。従って上記半自動演奏機能で演奏されるメロディパートの音符分だけ、伴奏パートは自動演奏されることになり、メロディの音符間に存在する伴奏音符は全て1回の押鍵操作で自動演奏されることになる。
【0057】
まず、▲1▼キーオンに対応したマニュアルキーが発音され、▲2▼メロディパートの読み出し位置にある音が発音され、▲3▼メロディパートの読み出し位置が次の音まで進められる(ステップS401)。ここまでは、マジカルメロディ&キーモード(モードIII)のメロディパートの半自動演奏処理である。
【0058】
次にテンポ検出部13によるテンポ検出処理がなされる。すなわち▲1▼前回のキーオンイベントから今回のキーオンイベントまでの時間が求められ、▲2▼上記所要時間と前回の音符から演奏者の求めるテンポスピードが計算されテンポタイマに設定される(ステップS402)。ただし以上のような処理の代わりに、前のテンポスピードと今回計算されたテンポスピードとの演算値をテンポタイマに設定しても良い。
【0059】
そしてメロディパートの読み出し位置に対応した伴奏パートの読み出し位置まで伴奏パートの音が上記の新たに計算(検出)されたテンポスピードにて順次読み出され、発音(自動演奏)される。その後メイン処理ルーチンに戻る。
【0060】
上記実施例構成では、図10に示すように、メロディパートと伴奏パートの演奏開始タイミングが同じ曲データがマジカルメロディ&キーモード(モードIII)によって演奏される場合は、最初の押鍵操作による実際の楽音も同時に発生せしめられることなり、また図11に示すように、伴奏パートからスタートし前奏のはいる曲データの上記モードによる半自動演奏処理では、最初の押鍵操作による直接の楽音の発生がなく、該押鍵操作によって伴奏パートの演奏が開始される(最初の押鍵操作は伴奏パートの演奏開始のトリガーとして扱う)ので、伴奏以外の楽音が鳴ってしまう問題が回避されるようになる。
【0061】
また上記実施例では、上記マジカルメロディ&キーモード(モードIII)による半自動演奏処理の初期は曲データ中に規定された基本テンポでの伴奏パートの自動演奏が行われ、その後押鍵タイミングを受けて検出された上記テンポ情報に補正されて、上記半自動演奏モードによる伴奏パートの自動演奏が行われるため、メロディパートは上記半自動演奏機能で演奏され、伴奏パートはそのメロディパートの音符分だけ自動演奏されることになり、メロディの音符間に存在する伴奏音符は全て1回の押鍵操作で自動演奏されることになる。
【0062】
尚、本発明の電子楽器は、上述の実施例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。たとえば、押鍵タッチの強さが併せて検出され、曲データ中の伴奏パートに、上記押鍵タッチの強さがベロシティ情報として反映されるようにすれば、操作者の押鍵タッチの強弱が、曲データ中の伴奏情報にも反映されて自動演奏が行われるようになり、操作者の鍵盤の弾き方によって、自分の意図する曲のメリハリを付けて、演奏を行うことができる。
【0063】
【発明の効果】
以上、説明したように本発明の請求項1及び請求項2記載の電子楽器によれば、最初の押鍵操作による直接の楽音の発生がなく、最初の押鍵操作は、自動演奏情報に基づく伴奏パートの演奏開始のトリガーとして作用することになるため、自動演奏情報に基づく演奏以外の楽音が鳴ってしまうことがなくなり、自然な演奏ができるようになるという優れた効果を奏し得る。
【0064】
また自動演奏情報に基づき2以上のパート間でシンクロナイズド演奏が可能な構成でも、これらのパート間で演奏開始タイミングの異なる上記自動演奏情報を基に演奏が行われる場合に、これらの構成によれば、最初の押鍵操作を、自動演奏情報に基づく伴奏パートの演奏開始のトリガーとして作用させることで、最初の押鍵操作のみ、該押鍵操作による直接の楽音を発生させずに、先に演奏の開始される伴奏パートの自動演奏が行われるようになるため、奇異な楽音を発生させることはなく、自然な演奏ができるようになる。
【図面の簡単な説明】
【図1】本発明の一実施例にかかる演奏制御装置構成が搭載された電子オルガン100の外観構成を示す斜視図である。
【図2】該電子オルガン100の基本回路図である。
【図3】本発明の機能ブロックを示すブロック図である。
【図4】マジカルタクトモード(モードI)の場合の曲データの表示例を示す説明図である。
【図5】マジカルメロディモード(モードII)の場合の曲データの表示例を示す説明図である。
【図6】本電子オルガン100のメイン処理ルーチンのフローチャートである。
【図7】ステップS105で半自動演奏モードのイニシャル処理の行われる半自動演奏処理▲1▼の処理手順を示すフローチャートである。
【図8】ステップS111で半自動演奏モードの最初のキーオン処理が行われる半自動演奏処理▲2▼の処理手順を示すフローチャートである。
【図9】ステップS113で半自動演奏モードのその後のキーオン処理が行われる半自動演奏処理▲3▼の処理手順を示すフローチャートである。
【図10】メロディパートと伴奏パートの演奏開始タイミングが同じ曲データがマジカルメロディ&キーモードによって演奏される場合における、最初の押鍵操作による実際の楽音の発生の状態を示す説明図である。
【図11】伴奏パートからスタートし前奏のはいる曲データがマジカルメロディ&キーモードによって演奏される場合における、最初の押鍵操作による実際の楽音の発生の状態を示す説明図である。
【符号の説明】
10 曲データ格納部
11 曲データ選択読出部
12 演奏制御部
13 テンポ検出部
14 キー&トーンアサイナ
100 電子オルガン
110 システムバス
111 CPU
112 RAM
113 ROM
114 鍵盤部
114a キースキャン回路
115 パネル操作部
115a パネルスキャン回路
116 表示部
116a 表示制御回路
117 FDD部
117a FDD制御回路
118 楽音発生回路
119 DSP効果付加回路
120 D/A変換回路
121 サウンドシステム
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic musical instrument that can be played based on automatic performance information.
[0002]
[Prior art]
Conventionally, some automatic musical instruments or accompaniment electronic musical instruments can perform synchronized performance between two or more parts. For example, when a performer plays a melody part based on automatic performance information (song data) in which both melody track (part) and accompaniment track (part) data are stored in advance, the accompaniment part is Some have functions such as a synchro start that starts simultaneously with the performance operation.
[0003]
As a more advanced configuration, no special operation is required, so that beginners can easily enjoy the performance.Every time the performance operation such as key pressing is performed, the corresponding musical sound in the automatic performance information is pronounced. Some have a function of advancing the performance of automatic performance information. An electronic keyboard instrument having such a semi-automatic performance function can be played simply by tapping an arbitrary keyboard in accordance with the timing of the melody, and anyone can enjoy the performance easily.
[0004]
[Problems to be solved by the invention]
However, among the latter configurations, those that have a configuration that can also generate musical sounds due to performance operations, and the former configuration can only be applied to automatic performance information in which the timings of the melody part and accompaniment part are completely the same. There are drawbacks to say. For example, in the latter configuration, when playing performance information starting from an accompaniment part and having a prelude, the performance of the accompaniment part is started by the first performance operation (such as a key pressing operation). There was a problem that the musical sound was generated and the musical sound other than the accompaniment was played, resulting in a strange performance. The same applies to a configuration in which synchronized performance can be performed between two or more parts based on the former automatic performance information.
[0005]
Furthermore, even when a single part is first started automatically, and a performance that is changed to a manual performance in the middle is required, a performance operation is required as a trigger for starting the automatic performance. If a direct musical sound is generated, it will be a strange performance.
[0006]
The present invention was devised in view of the above problems, and is an electronic musical instrument that can be played based on automatic performance information, and provides a configuration in which a predetermined performance operation is used as a trigger for starting performance, thereby providing a natural performance. It is something that can be done.
[0007]
[Means for Solving the Problems]
Keyboard Therefore construction of the present invention is an electronic musical instrument to advance the performance based on the automatic performance information in accordance with the timing and tempo keystroke, melody part and accompaniment part and is provided at least as automatic performance information, which has been depressed If the performance start timing of the accompaniment part of the automatic performance information is earlier than the performance timing of the melody part, only the musical sound of the accompaniment part is not generated. Is a basic feature.
[0008]
According to the above arrangement, since there is no occurrence of direct tone (such as the tone of the key that key depression sounds) is due to the first keystroke, the first key depression operation, the accompaniment part based on the automatic performance information It will act as a trigger to start playing. Therefore, musical sounds other than the performance based on the automatic performance information do not sound at the time of the first key pressing operation, and a natural performance can be performed. Of course, it is also possible to perform a performance that is changed to manual performance from the middle by generating at least a direct musical sound by the next key pressing operation (the musical sound of the key that has been pressed is sounded ).
[0009]
The second aspect of the invention prescribes that the first performance start timing of each part is different, and performance control means (refer to paragraph number 0041 described later) for detecting from which the performance start timing of which part comes first is provided. ing. That is, in the case of the configuration of claim 1, the performance control means automatically detects from which performance part the performance is to be started (see paragraph number 0041 described later), and only by the first performance operation, The automatic performance of the part whose performance is started first is performed without generating a direct musical sound due to the performance operation.
[0012]
With these configurations, the first key pressing operation can simply act as a trigger to start the performance of the accompaniment part based on the automatic performance information, so that no strange musical sounds are generated, so that a natural performance can be performed. Become.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing an external configuration of an electronic organ 100 equipped with a performance control device configuration according to an embodiment of the present invention, FIG. 2 is a basic circuit diagram of the electronic organ, and FIG. 3 is a functional block of the present invention. FIG. The electronic organ 100 generates a corresponding musical sound in the music data provided as automatic performance information every time the key is pressed, according to the key pressing operation, and advances the performance of the music data. Features are provided.
[0014]
As shown in FIG. 2, the electronic organ 100 is connected to a system bus 110 via a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, and a key scan circuit 114a. A connected keyboard unit 114, a panel operation unit 115 connected via a panel scan circuit 115a, a display unit 116 connected via a display control circuit 116a, an FDD unit 117 connected via an FDD control circuit 117a, A tone generation circuit 118 capable of simultaneously generating 64 channels by a sound source and a DSP effect addition circuit 119 are connected to each other, and various commands and data are transferred to these devices through the system bus 110. The DSP effect adding circuit 119 is electrically connected to a sound system 121 such as a D / A conversion circuit 120 for converting a tone with an effect such as reverb into an analog, an amplifier for amplifying the tone, and a speaker for generating sound externally. It is connected to the.
[0015]
The CPU 111 controls each unit of the electronic organ 100 including the configuration of the present invention in accordance with a control program stored in the program memory storage unit of the ROM 112, and also stores application programs stored in the program memory storage unit. This is a configuration in which the RAM 112 is used as a work area and data processing is performed using various fixed data stored in the ROM 113 as necessary.
[0016]
The RAM 112 stores apparatus status information and is used as a work area for the CPU 111. Various registers and flags for controlling the electronic organ 100 are defined in the RAM 112, and the RAM 112 is accessed by the CPU 111 via the system bus 110.
[0017]
As described above, the ROM 113 stores a program for controlling the entire electronic organ 100, and various fixed data (including demo data) used by the CPU 111. The ROM 113 constitutes a music data storage unit 10 to be described later (an FDD unit 117 to be described later may function as the music data storage unit 10 as necessary).
[0018]
The keyboard unit 114 is composed of the keyboard of the electronic organ 100, and includes a plurality of keyboards and a keyboard switch that opens and closes in conjunction with key depression and key release. The key scan circuit 114a interposed between the keyboard unit 114 and the system bus 110 checks the state of the keyboard switch, and generates touch data indicating the strength (speed) of the keyboard touch from a signal indicating ON / OFF thereof. At the same time, it outputs ON or OFF information and its keyboard number. The ON / OFF information, keyboard number, and touch data are sent to the CPU 111 via the system bus 110 as key press information (manual key).
[0019]
In the semi-automatic performance function, the data is sent from the keyboard unit 114 every time the key is pressed by the key pressing operation of the normal keyboard unit 114, and the music data (the automatic performance information selected as described later) ( The melody / accompaniment key) is first played at the basic tempo (default tempo) stored together as part of the song data selected in the song data storage unit 10, and thereafter (for example, from the second key depression). The tempo is detected in accordance with the tempo detected by the tempo detection unit 13 (the tempo set in the tempo timer of the tempo detection unit 13), and is played as a musical sound, and the performance is advanced. Therefore, the accompaniment part is automatically played for the notes of the melody part played by the semi-automatic performance function, and all the accompaniment notes existing between the notes of the melody are automatically played by one key press operation. become.
[0020]
In this embodiment, such a semi-automatic performance function is adopted as the following three modes. Namely, (1) Magical Tact Mode (Mode I): As shown in FIG. 4, the performance is advanced by pressing the keyboard at regular intervals (the timing of pressing the keyboard is shown at regular intervals in the drawing). The tempo and volume of the performance can be changed by the timing and strength of pressing the keyboard. (2) Magical melody mode (mode II): As shown in FIG. 5, accompaniment is accompanied by pressing the key in time with the timing of the melody (the timing for pressing the key in time with the melody part is shown in the drawing). In this mode, the tempo and volume of the performance can be changed by the timing and strength of the keyboard. (3) Magical melody & key mode (mode III): Like the above magical melody mode, this is a mode in which accompaniment is accompanied by pressing the key in time with the timing of the melody. Sounds at the same time. In the present embodiment, description will be made assuming that (3) Magical Melody & Key Mode (Mode III) is selected later.
[0021]
The panel operation unit 115 is provided with various switches such as a power switch and a tone color selection switch, a music selection touch panel, a mode selection touch panel, a volume variable device, and the like. The panel scan circuit 115a interposed between the panel operation unit 115 and the system bus 110 checks the set / reset state of each switch and touch panel provided in the panel operation unit 115, and turns on the panel switch. Data is detected and sent to the CPU 111.
[0022]
The display unit 116 is connected to the system bus 110 via a display control circuit 116a. Under the control of the CPU 111, various operation states of the panel operation unit 115, operation states of the electronic organ 100, music data selection to be described later are selected. This is a configuration for displaying the title of a song to be read out by the reading unit 11.
[0023]
In the present embodiment, the FDD unit 117 is constituted by a floppy disk drive (floppy is a registered trademark), and is connected to the system bus 110 via an FDD control circuit 117a. As required, the music data of the performance music stored in the FDD is read and written under the control of the CPU 111. Of course, instead of such an FDD configuration, it is composed of a CD-ROM drive and various card-type storage devices (flash memory card, compact flash card (compact flash is a registered trademark), SD card, memory stick, MO, etc.). It goes without saying that it is also good.
[0024]
FIG. 3 is a functional block diagram of a configuration according to the present invention incorporated as a configuration for executing the semi-automatic performance function in the electronic organ 100. As shown in the figure, the semi-automatic performance function is divided into a melody part and an accompaniment part, and a performance that stores song data for automatic performance with basic tempo information. A song data storage unit 10 as information storage means, and a song data selection / reading unit 11 that selects song data stored in the song data storage unit 10 according to an instruction, reads the song data at a predetermined tempo, and outputs it. The music data selected from the music data storage unit 10 is received, the performance start timing of the melody part and the accompaniment part is judged, and the generation of the musical tone corresponding to the key pressing information of the first key pressing operation is controlled according to the result. However, the performance control unit 12 that performs both parts automatically in the semi-automatic performance mode and the pressing of the keyboard unit 114 scanned by the key scan circuit 114a. Tempo detection unit 13 for detecting tempo information from the information, song data (melody key and accompaniment key) read from song data storage unit 10 and key press information obtained by actually pressing keys on keyboard unit 114 ( And a key & tone assigner 14 which receives manual keys from the performance control unit 12 and assigns them to each part (a predetermined channel of the musical tone generating circuit 118).
[0025]
In addition, in this embodiment, the key touch circuit 114a also detects the strength of the keyboard touch and outputs it as part of the key press information. The performance control unit 12 determines the detected key press touch strength. This is reflected as velocity information of the accompaniment part in the song data.
[0026]
The music data storage unit 10 includes a ROM 113 (or FDD unit 117). A plurality of song data including a melody part, accompaniment part, and basic tempo information are stored as automatic performance information, and the music specified by the panel operation unit 115 via the performance control unit 12 and the song data selection / reading unit 11 is stored. Data is read out. Note that, as shown in FIGS. 10 and 11 to be described later, the stored music data includes the same or different performance start timings between the melody part and the accompaniment part.
[0027]
The song data selection / reading unit 11 comprises a CPU 111, and selects song data stored in the song data storage unit 10 in response to a song data selection instruction sent from a performance control unit 12 to be described later by a predetermined panel operation. In addition, in response to an instruction from the performance control unit 12, address information for reading out the song data at a basic tempo or at a tempo speed detected by a tempo detection unit 13 described later is generated, and a song data storage unit 10 is output.
[0028]
The performance control unit 12 is constituted by the CPU 111, receives the music data selected from the music data storage unit 10 as described above, determines the performance start timing of the melody part and accompaniment part, and from the melody part. If the performance start timing of the accompaniment part is early (in the case of song data with a prelude), no musical sound corresponding to the key pressing information of the first key pressing operation is generated, and the performance start trigger in the semi-automatic performance mode is used. It has a function to automatically play parts.
[0029]
The performance control unit 12 controls the panel operation information of the panel operation unit 115 and the display state of the display unit 116 via the panel scan circuit 115a and the display control circuit 116a, and the system operates in any mode (magical tact). The mode (mode I), the magical melody mode (mode II), the magical melody & key mode (mode III), etc.) are selected, and further, an instruction relating to the selection of music is sent to the music data selection reading unit 11.
[0030]
On the other hand, the tone and volume information instructed in the panel operation and music data is received and supplied to the key & tone assigner 14 as tone / volume information, and the key number and velocity data of the key depression information of the keyboard unit 114 are supplied to the key & tone assigner 14. And the parameter is supplied to the DSP effect adding circuit 119 based on the reverb parameter set by the panel operation.
[0031]
In addition, the performance control unit 12 automatically performs the accompaniment part according to the basic tempo at the initial stage of the performance in the semi-automatic performance mode, and then corrects the tempo information detected by the tempo detection unit 13 to be described later. It also has a function of automatically playing the accompaniment part in the performance mode.
[0032]
The tempo detection unit 13 includes a CPU 111 and a RAM 112, detects the tempo speed based on the operation (key press) interval of the keyboard unit 114, and reads the song data to the song data selection / read unit 11. Send the data.
[0033]
The key & tone assigner 14 is composed of a CPU 111 and has almost the same function as a normal key assigner. However, when assigning key pressing data or song data to a predetermined channel of the tone generation circuit 118, the channel The musical tone generation circuit 118 is also instructed about the tone color and volume to be read out.
[0034]
In the configuration of the embodiment as described above, when a person who wants to perform with the electronic organ 100 turns on the power, the electronic circuit of the electronic organ 100 is initialized as shown in the main processing routine of FIG. (Step S101). A panel scan is then performed (step S102), and event processing based on the panel scan result is performed (step S103).
[0035]
At that time, it is checked whether or not there is a start / stop event in the semi-automatic performance mode (step S104), and if there is such an event (step S104; Yes), a semi-automatic performance process (1) described later (for the semi-automatic performance mode) Initial processing) is executed (step S105). Conversely, if there is no such event (step S104; No), the process of step S105 is jumped.
[0036]
Thereafter, a key scan of the keyboard unit 114 is executed (step S106), and it is checked whether there is a key-on event (step S107).
[0037]
If there is no key-on event (step S107; No), it is checked whether there is a key-off event (step S108). If there is a key-off event (step S108; Yes), normal mute processing is performed (step S109), and the process returns to step S102. If there is no key-off event (step S108; No), the process directly returns to step S102.
[0038]
On the other hand, if there is a key-on event in step S107 (step S107; Yes), it is checked whether the STT (start / stop) flag is 1 and the RUN flag is set to 0 (step S110). If the STT flag is 1 and the RUN flag is set to 0 (step S110; Yes), a semi-automatic performance process {circle around (2)} (performance process when accompaniment part comes first) is executed (step S111). The process returns to step S102.
[0039]
On the other hand, if the STT flag is 1 and the RUN flag is not set to 0 in step S110 (step S110; No), it is checked whether both the STT flag and the RUN flag are set to 1 (step S112). .
[0040]
If both the STT flag and the RUN flag are set to 1 (step S112; Yes), a semi-automatic performance process (3) (subsequent key-on process) described later is executed (step S113), and the process returns to step S102. On the other hand, if neither the STT flag nor the RUN flag is set to 1 (step S112; No), normal sound generation processing is performed (step S114), and then the process returns to step S102.
[0041]
FIG. 7 is a flowchart showing a processing procedure of the semi-automatic performance process (1) in which the initial process of the semi-automatic performance mode is performed in step S105 of FIG. Here, the performance control unit 12 determines the performance start timing of the melody part and the accompaniment part. If the performance start timing of the accompaniment part is earlier, the first key (FSTKY) flag is set to 0 as will be described later. The performance control is performed as shown in FIG.
[0042]
Here, it is first checked whether or not it is a start-on event in the semi-automatic performance mode (step S201).
[0043]
If it is a start-on event of the semi-automatic performance mode (step S201; Yes), (1) the STT flag is set to 1 (set of a flag indicating the start of the semi-automatic performance processing mode), and (2) in the song data The first stored tone, volume, and tempo speed (basic tempo) data is read and set, (3) the bar beat register is cleared, and (4) the melody part and accompaniment part are read out first. (Step S202).
[0044]
Then, it is checked whether or not the first sound of the accompaniment part is pronounced earlier than the first sound of the melody part in the melody part and the accompaniment part set in the reading position in step S202 (4). (Step S203). This is because, as described above, in the semi-automatic performance mode in which accompaniment is accompanied by pressing the key in time with the timing of the melody, the magical melody & key mode (mode III) that also sounds the key actually pressed is simultaneously played. When the song data that starts from the accompaniment part and the prelude is selected is selected, when the accompaniment part performance is started by the first key press operation, a direct musical sound is generated by the above performance operation. This is a check for avoiding the problem that musical sounds other than the accompaniment sound.
[0045]
If the first sound of the accompaniment part is pronounced earlier than the first sound of the melody part (step S203; Yes), the FSTKY flag is set to 0 (step S204), and the main processing routine is entered. Return.
[0046]
On the other hand, if the first sound of the accompaniment part is not pronounced earlier than the first sound of the melody part (step S203; No), the FSTKY flag is set to 1 (step S205), and the main Return to the processing routine.
[0047]
On the other hand, if the event is not the start-on event of the semi-automatic performance mode in step S201 (step S201; No), it is checked whether the semi-automatic performance is being performed, that is, whether the RUN flag is 1 (step S206). If the RUN flag is not 1 (step S206; No), the process returns to the main processing routine.
[0048]
If the RUN flag is 1 (step S206; Yes), it is checked whether it is a start-off event in the semi-automatic performance mode (step S207).
[0049]
If it is not a start-off event of the semi-automatic performance mode (step S207; No), the process returns to the main processing routine.
[0050]
On the other hand, if it is a start-off event in the semi-automatic performance mode (step S207; Yes), (1) all sounds being sounded are muted, (2) the clock counter is stopped, and (3) the RUN flag is set to 0. (4) The STT flag is set to 0 (step S208). Thereafter, the process returns to the main processing routine.
[0051]
FIG. 8 is a flowchart showing the procedure of the semi-automatic performance process (2) in which the first key-on process in the semi-automatic performance mode is performed in step S111 of FIG. That is, when the performance of the accompaniment part is started by the first key pressing operation when the song data starting from the accompaniment part and having the prelude is selected, a direct musical sound is generated by the key pressing operation, This is for performing processing for avoiding the problem that musical sounds other than the accompaniment sound.
[0052]
First, (1) the clock counter is started, and (2) the RUN flag is set to 1 (step S301). Then, it is checked whether or not the FSTKY flag is 1 (step S302).
[0053]
If the FSTKY flag is not 1 (step S302; No), the performance of the accompaniment part is started by the first key depression operation in the semi-automatic performance processing of the music data starting from the accompaniment part and having the prelude. It is necessary to generate a direct musical sound by the operation and make it a content. Therefore, first, the FSTKY flag is set to 1 (step S303), and the process jumps to step S305 described later.
[0054]
If the FSTKY flag is 1 in step S302 (step S302; Yes), the magical melody & key mode (mode) in which the melody part and the accompaniment part start playing simultaneously and the musical tone is generated according to the key depression. The process of III) is executed. First, the manual key corresponding to (1) key-on is sounded, (2) the first sound of the melody part is read and pronounced, and (3) the reading position of the melody part is set to the next sound (step S304). ).
[0055]
Thereafter, the sound of the accompaniment part is sequentially read out at the basic tempo speed until the accompaniment part reading position corresponding to the reading position of the melody part (step S305). Thereafter, the process returns to the main processing routine.
[0056]
FIG. 9 is a flowchart showing a processing procedure of the semi-automatic performance process (3) in which the key-on process in the semi-automatic performance mode is performed in step S113 of FIG. Here, the address information for reading the song data in the song data storage unit 10 at the tempo speed detected by the tempo detection unit 13 is generated in the song data selection / reading unit 11 and is subject to the address information according to the address information. The song data is read from the song data storage unit 10 and output. Therefore, the accompaniment part is automatically played for the notes of the melody part played by the semi-automatic performance function, and all the accompaniment notes existing between the notes of the melody are automatically played by one key press operation. become.
[0057]
First, a manual key corresponding to (1) key-on is sounded, (2) a sound at the reading position of the melody part is sounded, and (3) the reading position of the melody part is advanced to the next sound (step S401). Up to this point, the melody part semi-automatic performance process is performed in the magical melody & key mode (mode III).
[0058]
Next, tempo detection processing by the tempo detection unit 13 is performed. That is, (1) the time from the previous key-on event to the current key-on event is obtained, and (2) the tempo speed desired by the performer is calculated from the required time and the previous note and set in the tempo timer (step S402). . However, instead of the above processing, an operation value between the previous tempo speed and the tempo speed calculated this time may be set in the tempo timer.
[0059]
Then, the sound of the accompaniment part is sequentially read out at the newly calculated (detected) tempo speed up to the accompaniment part read position corresponding to the read out position of the melody part, and sounded (automatically played). Thereafter, the process returns to the main processing routine.
[0060]
In the configuration of the above embodiment, as shown in FIG. 10, when music data having the same performance start timing of the melody part and the accompaniment part is played in the magical melody & key mode (mode III), the actual operation by the first key pressing operation is performed. In addition, as shown in FIG. 11, in the semi-automatic performance processing in the above-described mode of the music data starting from the accompaniment part and having the prelude, as shown in FIG. However, since the performance of the accompaniment part is started by the key pressing operation (the first key pressing operation is handled as a trigger for starting the performance of the accompaniment part), the problem that a musical tone other than the accompaniment sounds is avoided. .
[0061]
In the above embodiment, in the initial stage of the semi-automatic performance processing in the magical melody & key mode (mode III), the accompaniment part is automatically played at the basic tempo specified in the song data, and then the key depression timing is received. The detected tempo information is corrected and the accompaniment part is automatically played in the semi-automatic performance mode. Therefore, the melody part is played with the semi-automatic performance function, and the accompaniment part is automatically played for the notes of the melody part. Therefore, all the accompaniment notes existing between the notes of the melody are automatically played by one key pressing operation.
[0062]
The electronic musical instrument of the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. For example, if the strength of the key pressing touch is detected together and the strength of the key pressing touch is reflected as velocity information on the accompaniment part in the music data, the strength of the key pressing touch of the operator can be reduced. The automatic performance is reflected on the accompaniment information in the music data, and the performance can be performed with the sharpness of the music intended by the operator playing the keyboard.
[0063]
【The invention's effect】
As described above, according to the electronic musical instrument according to claim 1 and claim 2, wherein the present invention, as described, does not generate direct tone by first keystroke, the first key depression is based on automatic performance information Since it acts as a trigger for starting the performance of the accompaniment part, it is possible to produce an excellent effect that a musical tone other than the performance based on the automatic performance information is not generated and a natural performance can be performed.
[0064]
Further, even in a configuration in which synchronized performance can be performed between two or more parts based on automatic performance information, when performance is performed based on the above automatic performance information having different performance start timings between these parts, according to these configurations, the first keystroke, by acting as a trigger for playing the beginning of the accompaniment part based on automatic performance information, only the first key depression, without causing immediate tone by said key depression, played earlier Since the accompaniment part is automatically played, no strange musical sound is generated and a natural performance can be performed.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of an electronic organ 100 equipped with a performance control device configuration according to an embodiment of the present invention.
2 is a basic circuit diagram of the electronic organ 100. FIG.
FIG. 3 is a block diagram showing functional blocks of the present invention.
FIG. 4 is an explanatory diagram showing a display example of music data in the magical tact mode (mode I).
FIG. 5 is an explanatory diagram showing a display example of song data in the magical melody mode (mode II).
6 is a flowchart of a main processing routine of the electronic organ 100. FIG.
FIG. 7 is a flowchart showing a processing procedure of a semi-automatic performance process (1) in which an initial process in a semi-automatic performance mode is performed in step S105.
FIG. 8 is a flowchart showing a processing procedure of a semi-automatic performance process (2) in which the first key-on process in the semi-automatic performance mode is performed in step S111.
FIG. 9 is a flowchart showing a processing procedure of a semi-automatic performance process (3) in which a subsequent key-on process in the semi-automatic performance mode is performed in step S113.
FIG. 10 is an explanatory diagram showing an actual musical tone generated by the first key pressing operation when song data having the same performance start timing of the melody part and the accompaniment part is played in the magical melody & key mode.
FIG. 11 is an explanatory diagram showing a state of actual musical sound generated by the first key pressing operation when song data starting from an accompaniment part and having a prelude is played in the magical melody & key mode.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Song data storage part 11 Song data selection reading part 12 Performance control part 13 Tempo detection part 14 Key & tone assigner 100 Electronic organ 110 System bus 111 CPU
112 RAM
113 ROM
114 Keyboard section 114a Key scan circuit 115 Panel operation section 115a Panel scan circuit 116 Display section 116a Display control circuit 117 FDD section 117a FDD control circuit 118 Music sound generation circuit 119 DSP effect addition circuit 120 D / A conversion circuit 121 Sound system

Claims (2)

押鍵操作のタイミングおよびテンポに応じて自動演奏情報に基づく演奏を進行させる電子楽器において、
自動演奏情報としてメロディパートと伴奏パートとが少なくとも備えられ、
押鍵された鍵盤の楽音も同時に発生するモードであって、自動演奏情報の伴奏パートの演奏開始タイミングが、メロディパートの演奏タイミングより先の場合、最初の押鍵操作による楽音を発生させず、伴奏パートの楽音のみを発音させる
ことを特徴とする電子楽器。
In an electronic musical instrument that advances performance based on automatic performance information according to the timing and tempo of key pressing operation,
At least a melody part and an accompaniment part are provided as automatic performance information,
In this mode, the musical tone of the pressed keyboard is generated at the same time, and if the performance start timing of the accompaniment part of the automatic performance information is ahead of the performance timing of the melody part, the musical tone due to the first key pressing operation is not generated. An electronic musical instrument characterized by producing only the musical sound of the accompaniment part .
各パートの最初の演奏開始タイミングが異なり、どのパートの演奏開始タイミングが先か、自動演奏情報から検出する演奏制御手段を備えたことを特徴とする請求項1記載の電子楽器。  2. The electronic musical instrument according to claim 1, further comprising performance control means for detecting, from the automatic performance information, which part has the first performance start timing different and which part starts first.
JP2001313383A 2001-10-11 2001-10-11 Electronic musical instruments Expired - Fee Related JP3862988B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001313383A JP3862988B2 (en) 2001-10-11 2001-10-11 Electronic musical instruments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001313383A JP3862988B2 (en) 2001-10-11 2001-10-11 Electronic musical instruments

Publications (2)

Publication Number Publication Date
JP2003122354A JP2003122354A (en) 2003-04-25
JP3862988B2 true JP3862988B2 (en) 2006-12-27

Family

ID=19131861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001313383A Expired - Fee Related JP3862988B2 (en) 2001-10-11 2001-10-11 Electronic musical instruments

Country Status (1)

Country Link
JP (1) JP3862988B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101007038B1 (en) * 2010-07-01 2011-01-12 주식회사 드럼앤조이 Electronical drum euipment

Also Published As

Publication number Publication date
JP2003122354A (en) 2003-04-25

Similar Documents

Publication Publication Date Title
JP3743024B2 (en) Performance practice device
JP3811043B2 (en) Electronic musical instruments
JP3862988B2 (en) Electronic musical instruments
JP3005915B2 (en) Electronic musical instrument
JP2010117419A (en) Electronic musical instrument
JP3800778B2 (en) Performance device and recording medium
JP4498645B2 (en) Electronic musical instrument automatic performance device
JP4056902B2 (en) Automatic performance apparatus and automatic performance method
JP3620366B2 (en) Electronic keyboard instrument
JP5560574B2 (en) Electronic musical instruments and automatic performance programs
JP2619278B2 (en) Electronic musical instrument with rhythm solo performance function
JP3436636B2 (en) Automatic accompaniment device for electronic and electric musical instruments
JP2002333880A (en) Electronic musical instrument, sound production processing method and program
JP4254697B2 (en) Electronic musical instruments
JP3620321B2 (en) Automatic accompaniment device
JP3375220B2 (en) Electronic musical instrument
JP3669066B2 (en) Electronic musical instruments
JPH07199940A (en) Demonstrative playing controller for electronic musical instrument
JP2001125572A (en) Electronic musical instrument, musical sound generation control method and storage medium
JP2003271141A (en) Tempo controller for electronic musical instrument
JP5449963B2 (en) Automatic melody performance device and program for automatic melody performance function
JPH06250657A (en) Electronic musical instrument
JP3150580B2 (en) Automatic performance device and automatic performance method
JPH07160255A (en) Automatic accompaniment device for electronic instrument
JPH1063269A (en) Silence piano

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060927

R150 Certificate of patent or registration of utility model

Ref document number: 3862988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees