JP2004045902A - Electronic musical instrument - Google Patents

Electronic musical instrument Download PDF

Info

Publication number
JP2004045902A
JP2004045902A JP2002204958A JP2002204958A JP2004045902A JP 2004045902 A JP2004045902 A JP 2004045902A JP 2002204958 A JP2002204958 A JP 2002204958A JP 2002204958 A JP2002204958 A JP 2002204958A JP 2004045902 A JP2004045902 A JP 2004045902A
Authority
JP
Japan
Prior art keywords
tone
harmony
image localization
note data
sound image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002204958A
Other languages
Japanese (ja)
Inventor
Seiji Kushimiya
串宮 清路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP2002204958A priority Critical patent/JP2004045902A/en
Publication of JP2004045902A publication Critical patent/JP2004045902A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic musical instrument capable of varying the spatial extent of harmony according to the kind of a selected timbre. <P>SOLUTION: This electronic musical instrument has a chord detection part 11, a harmony addition part 12 which allocates note data corresponding to respective preset harmony parts according to the detected chord and sets two-dimensional or three-dimensional sound image localization of respective harmony parts according to the kind of the set timbre, a key and tone assigner 13 which allocates the respective note data of the harmony parts whose sound image localization is set to musical sound generation channels, and a musical sound generation part 14 which reads out the respective note data corresponding to parameter-set timbre data by the allocated musical sound generation channels to generate a musical sound. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、アンサンブル演奏が可能な電子楽器に関する。
【0002】
【従来の技術】
自動伴奏付き電子ピアノや電子オルガン等では、ひとりで簡単にアンサンブル演奏を楽しむことができる。
【0003】
この場合の自動伴奏とは、リズムとテンポをあらかじめ設定し自動伴奏をオンにして、鍵盤を弾くと、押されている鍵からコード判別を行い伴奏を付加するというものである。
【0004】
また、伴奏とは別に、上記コード判別の結果から自分の弾いているメロディに対し、例えば3度上、4度下等にハーモニをつける機能もある。
【0005】
【発明が解決しようとする課題】
しかし、上記のようなアンサンブル演奏で選択可能なヴォーカルの音色の例を考えてみると、ハーモニを加えるということは、複数の人間が声を出すということになり、複数の人間が同一の所から声を出すことはできないので、空間上で拡がりがでてくる。これはヴォーカルの音色の例だけではなく、管楽器、弦楽器等のソロ楽器などにもあてはまる。
【0006】
他方ピアノ等の鍵盤楽器は、一人で鍵盤の抑え方でハーモニを作る事が多いため、ハーモニをつけて演奏したことによる拡がりの変化はあまりない。
【0007】
上記のような電子楽器では、3度上、4度下などというように音程に変化をつけてハーモニを付加することはあったが、ハーモニに対して空間的な拡がりを付加することはなかった。
【0008】
また、楽器によってハーモニの空間的拡がりを変えることもできなかった。
【0009】
本発明は以上のような実情に鑑み創案されたもので、選択された音色の種類によってハーモニの空間的拡がりを変えることのできる電子楽器を提供せんとするものである。
【0010】
【課題を解決するための手段】
本発明に係る電子楽器は、
押鍵情報からコードを検出するコード検出手段と、
検出されたコードから、予め設定された各ハーモニパートに対応するノートデータを割り振りると共に、設定された音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定するハーモニ付加手段と、
音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生チャンネルに割り当てる割当手段と、
割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出し、楽音を発生せしめる楽音発生手段と
を有することを有することを基本的特徴としている。
【0011】
デフォルトで或いはパネル設定などにより予め決められた数のハーモニパートに対し、ハーモニ付加手段により、検出されたコードの基本ノートデータが1のハーモニパートがそれに割り振られ、また該コードの残りのノートデータが夫々別のハーモニパートに割り当てられる。さらに、同じくパネル設定などによりパラメータ設定のされた音色の種類に基づき、ハーモニ付加手段によって、各ハーモニパートの2次元又は3次元の音像定位が設定される。そして割当手段により、音像定位の設定された夫々のハーモニパートの各ノートデータが、楽音発生チャンネルに割り当てられ、楽音発生手段により、割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータが読み出され、楽音が発生せしめられることになる。
【0012】
ここで、ハーモニ付加手段による各ハーモニパート(ここでは説明を容易にするため基本ハーモニパートのノートデータに対し3度上のハーモニパートと4度下のハーモニパートに設定されるものとして説明する)の2次元の音像定位とは、各パートの平面方向(聞く者に対して左右の横方向など)における音量を任意の状態に設定すること(請求項3)を意味しており、たとえば基本ハーモニパートのノートデータの音量デプスをL・R共に70とした場合、3度上のパートのR側音量デプスを100・L側音量デプスを40とし、また4度下のパートのR側音量デプスを40・L側音量デプスを100とするように、パンの広がりデプス(2次元的な音像定位)に設定することを言う。
【0013】
また3次元の音像定位とは、上記のような2次元的定位設定と共に、奥行き方向におけるディレイ設定に違いを設けること(請求項4)を意味しており、たとえば各ハーモニパート間では、上述のような音量設定が行われ、さらに、夫々のハーモニパートの1列目ではディレイ0ms、2列目ではディレイ5ms、3列目では10msというように、ディレイをかけて、奥行きの出る設定を行うことを言う(もちろんこのディレイタイムは、奥行き方向の距離などによって異なる設定となる)。
【0014】
請求項2の構成は、上記請求項1の構成にさらに自動伴奏機能を付加した構成であり、より具体的には、
押鍵情報からコードを検出するコード検出手段と、
押鍵情報に基づき自動伴奏を実行する自動伴奏手段と、
検出されたコードから、予め設定された各ハーモニパートに対応するノートデータを割り振りると共に、設定された音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定するハーモニ付加手段と、
音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生チャンネルに割り当てると共に、自動伴奏実行による楽音発生チャンネルを同じく割り当てる割当手段と、
割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出し、楽音を発生せしめる楽音発生手段と
を有することを特徴としている。
【0015】
このように、さらに自動伴奏機能が付加されることで、アンサンブル演奏がより楽しく行うことが可能となる。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態を図示例と共に説明する。
図1は、本発明の一実施例にかかる演奏制御装置構成が搭載された電子オルガン100の外観構成を示す斜視図、図2は該電子オルガンの基本回路図、図3は本発明の機能ブロックを示すブロック図である。上記電子オルガン100には、後述するパネル操作部115の設定により、押されている鍵からコード判別を行い、そのコード判別結果から、演奏者の弾いているメロディに対し、3度上、4度下といったハーモニをつけてアンサンブル演奏ができる機能が備えられている。
【0017】
上記電子オルガン100は、図2に示すように、システムバス110上に、CPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、キースキャン回路114aを介して接続された鍵盤部114、パネルスキャン回路115aを介して接続されたパネル操作部115、表示制御回路116aを介して接続された表示部116、各音色に対応する(音色パラメータとして指定される)波形データを波形メモリ117a内に有し且つ該メモリから音色パラメータで設定された波形データの読み出しを行う音源による64チャンネル同時発音可能な楽音発生回路117、及びDSP効果付加回路118が、各接続されており、該システムバス110を通じてこれらのデバイスに各種命令やデータの受け渡しがなされる。また前記DSP効果付加回路118には、リバーブなどの効果付加された楽音をアナログに変換するD/A変換回路119と、それを増幅する増幅器及び外部に発音せしめるスピーカなどのサウンドシステム120が電気的に接続されている。
【0018】
上記CPU111は、前記ROM112のプログラムメモリ記憶部に記憶されている制御プログラムに従って、本発明構成を含む電子オルガン100の各部を制御するものであり、また上記プログラムメモリ記憶部に記憶されたアプリケーションプログラムを実行し、必要に応じて、RAM112を作業領域として使用し、さらにROM113に記憶された種々の固定データを使用しながらデータ処理を行う構成である。
【0019】
上記RAM112は、装置のステータス情報を記憶したり、CPU111の作業領域として使用されるものである。尚、当該電子オルガン100を制御するための各種レジスタやフラグ等は、RAM112に定義されており、このRAM112は、CPU111により、システムバス110を介してアクセスされる。
【0020】
上記ROM113は、上述のように、本電子オルガン100全体を制御するプログラムを格納している他、CPU111が使用する種々の固定データ(キーアサインテーブルやコード検出テーブルなどを含む)が記憶されている。
【0021】
上記鍵盤部114は、電子オルガン100の鍵盤で構成されており、複数の鍵盤と、これらの押鍵や離鍵に連動して開閉する鍵盤スイッチからなる。この鍵盤部114とシステムバス110の間に介在するキースキャン回路114aは、鍵盤スイッチの状態を調べ、そのON/OFFを示す信号から鍵盤タッチの強さ(速さ)を示すタッチデータを生成すると共に、ON又はOFF情報とその鍵盤ナンバーを出力するものである。このON/OFF情報及び鍵盤ナンバー、タッチデータは、押鍵情報として、システムバス110を介してCPU111に送られる。
【0022】
上記パネル操作部115は、電源スイッチ、音色選択スイッチなど各種スイッチ及びモード選択タッチパネル、ボリューム可変器などが設けられている。このパネル操作部115とシステムバス110の間に介在する前記パネルスキャン回路115aは、上記パネル操作部115に設けられた各スイッチやタッチパネルのセット/リセット状態を調べ、ON状態になっているパネルスイッチデータを検出してCPU111に送出するものである。
【0023】
本実施例では、上記パネル操作部115のパネル操作によって、通常の演奏モードとメロディにハーモニが自動的につけられて演奏されるアンサンブル演奏モードの設定(或いはこれらのモードに自動伴奏が付加できるモード設定も可)、及び自分の好きな音色で鍵盤演奏ができるように設定(選択)できる音色設定が少なくともできるようになっている。
【0024】
上記表示部116は、表示制御回路116aを介してシステムバス110につながれており、CPU111からの制御により、上記パネル操作部115の各種操作状態や、電子オルガン100の動作状態、上記モード設定状態、音色設定状態などが表示される構成である。
【0025】
図3は、電子オルガン100において、演奏者の弾いているメロディに対し、ハーモニをつけてアンサンブル演奏ができる構成として組み込まれた本発明に係る構成の機能ブロック図である。このアンサンブル演奏機能が実行される構成は、同図に示されるように、パネル操作部115及びそのパネルスキャン回路115aによる設定で演奏者が音色選択を行った場合にその音色パラメータの設定を行う音色設定部10と、キースキャン回路114aでスキャンされた鍵盤部114の押鍵情報からコードを検出するコード検出部11と、検出されたコードから、予めデフォルトで設定された(又はパネル操作部115で設定されるようにしても良い)各ハーモニパートに対応するノートデータを割り振りると共に、パラメータ設定のされた音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定するハーモニ付加部12と、音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生チャンネル(後述の楽音発生回路117の所定のチャンネル)に割り当てる割当部に相当するキー&トーンアサイナ13と、割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出して楽音を発生せしめる楽音発生部14とを有している。
【0026】
その他、本実施例では、例えばパネル操作部115の操作によって、鍵盤部114の任意のポイントをスプリットポイントとしてその左側をコード指定領域とし、右側をメロディ演奏領域とし、該コード指定領域の押鍵情報にあわせて自動伴奏を行う自動伴奏部15が設けられるようにしても良い。またこの自動伴奏部15の自動伴奏機能は、コード検出部11により検出されたコードを基に自動伴奏を行うものでも良い。この自動伴奏による演奏データは、上記キー&トーンアサイナ13に送られ、楽音発生チャンネルに割り当てられることになる。
【0027】
上記音色設定部10は、上述のように、パネル操作部115及びそのパネルスキャン回路115aによる設定で演奏者が音色選択を行った場合に、その音色設定が音色パラメータとして記憶されるRAM112で構成されている。
【0028】
上記コード検出部11は、CPU111及びROM113で構成されており、キースキャン回路114aでスキャンされた鍵盤部114の押鍵情報からコード、すなわち付加音を検出する機能を有する。具体的には、パネル操作部115のパネル操作でアンサンブル演奏モードが選択された際、設定演奏者が鍵盤部114で弾いたメロディ部分のノートデータを基本ノートとして、コード検出テーブル(図示なし)を参照して、例えばその基本ノートの3度上のノートと4度下のノートを、付加音として送出することになる。
【0029】
上記ハーモニ付加部12は、上記CPU111、RAM112及びROM113で構成されており、検出されたコードから、予め設定された各ハーモニパートに対応するノートデータ(基本ノートデータ及び付加音データ)を割り振りると共に、パラメータ設定のされた音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定する機能を有している。
【0030】
より具体的には、該ハーモニ付加部12の構成は、図4に示すように、コード検出部11からコード入力されてくるノートデータを、各ハーモニパートへ割当設定する割当設定部12aと、音色設定部10で設定された音色パラメータに基づく各ハーモニパートへの音像定位設定パラメータが格納された音色別ハーモニデータ設定格納部12bと、該音色別ハーモニデータ設定格納部12bから各ハーモニパートへの音像定位設定パラメータが読み出され、それに基づき、上記割当設定部12aで各ハーモニパートへ割当設定されたノートデータに対して、2次元又は3次元の音像定位を設定して外部に出力する音像定位設定部12cとを備えている。
【0031】
上記キー&トーンアサイナ13は、CPU111で構成されており、通常のキーアサイナとほぼ同じ機能を有しているが、上述のように、音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生回路117の所定のチャンネルに割り当てる際に、夫々のチャンネルで読み出すべき音色データ及びベロシティデータも、パラメータとして楽音発生回路117に指示する。
【0032】
上記楽音発生部14は、上述した波形メモリ117aを有する楽音発生回路117と、DSP効果付加回路118と、D/A変換回路119と、サウンドシステム120とで構成されている。そのうち、割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出して楽音を発生せしめる基本機能は、波形メモリ117aを備えた楽音発生回路117で行われる。
【0033】
以上のような実施例構成では、この電子オルガン100で演奏しようとする者が、電源をONにすると、図5のメイン処理ルーチンに示すように、電子オルガン100の電子回路の初期化が行われる(ステップS101)。
【0034】
そしてパネルスキャンがなされる(ステップS102)。ここではパネルスイッチの状態変化を検出し、スイッチイベント即ちパネルスイッチの状態変化を検出した場合には、夫々のスイッチに対応する処理が行われる。
【0035】
そして鍵盤処理がなされ(ステップS103)、鍵盤状態の変化が検出され、鍵盤イベント即ち鍵の状態変化が検出された場合には周知のキーアサイン或いはキーオフなどの処理がなされる。
【0036】
上記パネル処理で自動伴奏モードに設定がなされている場合には、次に自動演奏処理がなされる(ステップS104)。すなわち、自動演奏状態で且つ発音タイミングが到来している演奏情報があれば鍵盤イベントと同様に、発音制御される。
【0037】
その後後述する付加音処理がなされ(ステップS105)、付加音の発音制御がなされる。
【0038】
最後に音色やテンポなどの設定状態を表示部116に表示する処理やDSP効果付加回路118においてなされる各チャンネルにおけるビブラート、ドラムゲート処理などの効果のための制御パラメータの更新処理などが行われる(ステップS106)。
【0039】
図6は、図5のステップS105で行われる付加音処理の処理手順を示すフローチャートである。最初に上記コード検出部11による付加音決定処理(ステップS201)が行われ、次にハーモニ付加部12による音像定位設定処理が行われる(ステップS202)。
【0040】
ここでステップS201の付加音決定処理については、先に述べたとおりであり、その詳細は省略する。
【0041】
図7は、パネル操作部115で、トリオ(ヴォーカル)の音色設定を行った際に、ハーモニ付加部12における2次元の音像定位の設定状態を示す説明図である。上述のように、コード検出部11により、基本ノート(キーノート)データに対し、3度上のノートデータと4度下のノートデータが、出力される。これらのノートデータが上記ハーモニ付加部12に入力されると、上記割当設定部12aにより、各ハーモニパートへ夫々のノートデータが割り当てられる。
【0042】
他方パネル操作部115のパネル操作により音色設定部10に設定のなされた音色パラメータに基づき、音色別ハーモニデータ設定格納部12bから、2次元のハーモニデータ設定情報が読み出され、音像定位設定部12cに送られる。それに基づき、上記音像定位設定部12cにより、図7に示されるように、各ハーモニパートに対する音像定位設定がなされる。すなわち、基本ノートデータが割り当てられたハーモニパートでは、R側及びL側の音量デプスが夫々70に設定され、また3度上のノートデータが割り当てられたハーモニパートでは、R側の音量デプスが100及びL側の音量デプスが40に設定され、さらに4度下のノートデータが割り当てられたハーモニパートでは、R側の音量デプスが40及びL側の音量デプスが100に設定されている。これらの各ハーモニパートは、以上のようなパン設定を行うことで、横方向での広がりを表現できるため、夫々のディレイタイムは0msに設定されている。
【0043】
図8は、パネル操作部115で、A、B、C列、各3人が並んだコーラス(ヴォーカル)の音色設定を行った際に、ハーモニ付加部12における3次元の音像定位の設定状態を示す説明図である。上述のように、コード検出部11により、基本ノート(キーノート)データに対し、3度上のノートデータと4度下のノートデータが、出力される。これらのノートデータが上記ハーモニ付加部12に入力されると、上記割当設定部12aにより、各ハーモニパートへ夫々のノートデータが割り当てられる。
【0044】
他方パネル操作部115のパネル操作により音色設定部10に設定のなされた音色パラメータに基づき、音色別ハーモニデータ設定格納部12bから、3次元のハーモニデータ設定情報が読み出され、音像定位設定部12cに送られる。それに基づき、上記音像定位設定部12cにより、図8に示されるように、各ハーモニパートに対する音像定位設定がなされる。すなわち、基本ノートデータが割り当てられたハーモニパートでは、R側及びL側の音量デプスが夫々70に設定され、また3度上のノートデータが割り当てられたハーモニパートでは、R側の音量デプスが100及びL側の音量デプスが40に設定され、さらに4度下のノートデータが割り当てられたハーモニパートでは、R側の音量デプスが40及びL側の音量デプスが100に設定されている。これらの各ハーモニパートは、以上のような設定を行うことで、横方向での広がりを表現できる。
【0045】
他方A、B、C列の奥行き方向では、各列に距離があるため、夫々の音像定位にディレイがかかる。そのため、最初のA列では全てディレイタイムは0msに設定されているが、次のB列ではディレイタイムが全て5msに設定され、さらにC列ではディレイタイムが全て10msに設定されることになる。以上のようにすることで、奥行き方向の音像定位が設定できることになる。
【0046】
図9は、上記図8の3次元音像定位設定がなされた場合に、実際に測定されるA列、B列及びC列における音のずれ状態を示すタイムチャートを示している。同図に示すように、実際に発音される楽音では、A列のディレイタイムは0msとは言っても、実際にはわずかなタイムラグがあるが、B列及びC列では、A列に対し相対的に、設定されたディレイタイム分だけ遅れて楽音が出力されていることが分かる。
【0047】
以上詳述した本実施例構成によれば、デフォルトで予め決められた数のハーモニパートに対し、コード検出部11で検出されたコードの基本ノートデータが、ハーモニ付加部12により、1のハーモニパートがそれに割り振られ、また該コードの残りのノートデータが夫々別のハーモニパートに割り当てられる。さらに、同じくパネル設定により音色設定部10にパラメータ設定のされた音色の種類に基づき、ハーモニ付加部12によって、各ハーモニパートの2次元又は3次元の音像定位が設定されることになる。そしてキー&トーンアサイナ13により、音像定位の設定された夫々のハーモニパートの各ノートデータが、楽音発生チャンネルに割り当てられ、楽音発生部14により、割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータが読み出され、楽音が発生せしめられることになる。そのため、本電子オルガン100では、パネル操作部115のパネル操作でアンサンブル演奏モードが選択された場合、選ばれた音色の種類によって、ハーモニの空間的拡がりを適宜変える(例えばピアノは少なく、ヴォーカルは大きくなどと変更する)ことができるようになり、ひとりで簡単にアンサンブル演奏を楽しむことが可能となる。
【0048】
尚、本発明の電子楽器は、上述の実施例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0049】
【発明の効果】
以上、説明したように本発明の請求項1〜請求項4記載の電子楽器によれば、選ばれた音色の種類によって、ハーモニの空間的拡がりを適宜変えることができるようになり、ひとりで簡単にアンサンブル演奏を楽しむことが可能となるという優れた効果を奏し得る。
【図面の簡単な説明】
【図1】本発明の一実施例にかかる演奏制御装置構成が搭載された電子オルガン100の外観構成を示す斜視図である。
【図2】本電子オルガン100の基本回路図である。
【図3】本発明の機能ブロックを示すブロック図である。
【図4】上記本発明構成におけるハーモニ付加部12の機能ブロック構成を示すブロック図である。
【図5】本電子オルガン100のメインフローを示すフローチャートである。
【図6】ステップS105で行われる付加音処理の処理手順を示すフローチャートである。
【図7】トリオ(ヴォーカル)の音色設定を行った際に、ハーモニ付加部12における2次元の音像定位の設定状態を示す説明図である。
【図8】3列、各3人が並んだコーラス(ヴォーカル)の音色設定を行った際に、ハーモニ付加部12における3次元の音像定位の設定状態を示す説明図である。
【図9】3次元音像定位設定がなされた場合に、実際に測定されるA列、B列及びC列における音のずれ状態を示すタイムチャートを示している。
【符号の説明】
10   音色設定部
11   コード検出部
12   ハーモニ付加部
12a  割当設定部
12b  音色別ハーモニデータ設定格納部
12c  音像定位設定部
13   キー&トーンアサイナ
14   楽音発生部
15   自動伴奏部
100   電子オルガン
110   システムバス
111   CPU
112   RAM
113   ROM
114   鍵盤部
114a  キースキャン回路
115   パネル操作部
115a  パネルスキャン回路
116   表示部
116a  表示制御回路
117   楽音発生回路
117a  波形メモリ
118   DSP効果付加回路
119   D/A変換回路
120   サウンドシステム
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an electronic musical instrument capable of performing an ensemble.
[0002]
[Prior art]
With an electronic piano with an automatic accompaniment, an electronic organ, or the like, one can easily enjoy an ensemble performance by himself.
[0003]
The automatic accompaniment in this case means that when the rhythm and tempo are set in advance, the automatic accompaniment is turned on, and the keyboard is played, the chord is discriminated from the key being pressed and the accompaniment is added.
[0004]
In addition to the accompaniment, there is also a function of adding a harmony to the melody being played, for example, three times, four times, or the like, based on the result of the chord determination.
[0005]
[Problems to be solved by the invention]
However, considering the examples of vocal tones that can be selected in the ensemble performance as described above, adding harmony means that multiple people are vocal, and multiple people are from the same place I can't speak, so it spreads out in space. This applies not only to vocals, but also to solo instruments such as wind instruments and string instruments.
[0006]
On the other hand, keyboard instruments such as pianos often make harmony by holding down the keyboard alone, so there is not much change in the spread due to playing with the harmony.
[0007]
In the above electronic musical instruments, harmony was added by changing the pitch, such as 3rd up, 4th down, etc., but no spatial expansion was added to the harmony. .
[0008]
Nor was it possible to change the spatial extent of the harmony with musical instruments.
[0009]
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an electronic musical instrument capable of changing the spatial spread of a harmony depending on the type of a selected timbre.
[0010]
[Means for Solving the Problems]
The electronic musical instrument according to the present invention,
Code detection means for detecting a code from key press information;
Harmony adding means for allocating preset note data corresponding to each harmonic part from the detected chord, and setting a two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of the set timbre. ,
Allocating means for allocating each note data of each harmony part for which the sound image localization is set to a musical tone generation channel,
A fundamental feature is that it has a tone generating means for reading out each note data corresponding to the tone color data for which the parameter is set for each assigned tone generating channel and generating a tone.
[0011]
By default, or for a predetermined number of harmonic parts by panel setting, etc., the harmonic note part of the detected chord is assigned to the harmonic note part of which the basic note data of the detected chord is 1, and the remaining note data of the chord is assigned to the harmonic note. Each is assigned to a different harmonicipart. Further, a two-dimensional or three-dimensional sound image localization of each harmony part is set by the harmony adding means based on the kind of the timbre for which the parameters are set by the panel setting or the like. The assigning means assigns each note data of each of the harmony parts for which the sound image localization is set to a tone generating channel, and the tone generating means corresponds to the tone data set for each assigned tone generating channel. The corresponding note data is read out, and a musical tone is generated.
[0012]
Here, each of the harmony parts by the harmony adding means (here, for simplicity of explanation, the note data of the basic harmony part is described as being set to a harmony part three times higher and a harmony part four times lower than the note data of the basic harmony part) The two-dimensional sound image localization means that the volume of each part in a plane direction (horizontal direction to the listener, etc.) is set to an arbitrary state (claim 3). When the volume depth of the note data of both L and R is 70, the R-side volume depth of the third upper part is 100. The L-side volume depth is 40, and the R-side volume depth of the fourth lower part is 40. Setting the breadth depth (two-dimensional sound image localization) so that the L-side volume depth is 100.
[0013]
In addition, the three-dimensional sound image localization means providing a difference in the delay setting in the depth direction together with the two-dimensional localization setting as described above (Claim 4). Such a sound volume setting is performed, and a delay is set such that a delay is 0 ms in the first row of the respective harmoniciparts, 5 ms in the second row, and 10 ms in the third row. (Of course, this delay time is set differently depending on the distance in the depth direction, etc.).
[0014]
The configuration of claim 2 is a configuration in which an automatic accompaniment function is further added to the configuration of claim 1, and more specifically,
Code detection means for detecting a code from key press information;
Automatic accompaniment means for executing automatic accompaniment based on key depression information;
Harmony adding means for allocating preset note data corresponding to each harmonic part from the detected chord, and setting a two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of the set timbre. ,
Allocating means for allocating each note data of each of the harmoniciparts for which the sound image localization is set to a musical tone generation channel, and allocating a musical tone generation channel by performing automatic accompaniment similarly;
A tone generating means for reading out note data corresponding to tone color data for which parameters are set for each assigned tone generating channel and generating a tone.
[0015]
As described above, by further adding the automatic accompaniment function, the ensemble performance can be performed more enjoyably.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing an external configuration of an electronic organ 100 equipped with a performance control device according to an embodiment of the present invention, FIG. 2 is a basic circuit diagram of the electronic organ, and FIG. 3 is a functional block of the present invention. FIG. The electronic organ 100 performs a chord discrimination from a pressed key according to a setting of a panel operation unit 115 described later, and, based on the chord discrimination result, determines a melody played by the player three times higher and four times higher. The ensemble can be played with the harmony below.
[0017]
As shown in FIG. 2, the electronic organ 100 includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, and a key scan circuit 114a on a system bus 110. A connected keyboard unit 114, a panel operation unit 115 connected via a panel scan circuit 115a, a display unit 116 connected via a display control circuit 116a, and waveforms (designated as tone parameters) corresponding to each tone. A tone generator 117 capable of simultaneously generating 64 channels by a sound source having data in a waveform memory 117a and reading waveform data set by tone parameters from the memory, and a DSP effect adding circuit 118 are connected to each other. Cage Passing various commands and data are made to these devices via the system bus 110. The DSP effect adding circuit 118 is electrically connected to a D / A conversion circuit 119 for converting a musical tone to which an effect such as reverb is added into an analog signal, and an amplifier for amplifying the analog sound and a sound system 120 such as a speaker for generating an external sound. It is connected to the.
[0018]
The CPU 111 controls each section of the electronic organ 100 including the configuration of the present invention in accordance with a control program stored in a program memory storage section of the ROM 112, and executes an application program stored in the program memory storage section. This is a configuration in which data processing is performed by using the RAM 112 as a work area, and further using various fixed data stored in the ROM 113 as necessary.
[0019]
The RAM 112 stores status information of the apparatus and is used as a work area of the CPU 111. Various registers, flags, and the like for controlling the electronic organ 100 are defined in a RAM 112, and the RAM 112 is accessed by the CPU 111 via a system bus 110.
[0020]
The ROM 113 stores a program for controlling the entire electronic organ 100 as described above, and also stores various fixed data (including a key assignment table, a code detection table, and the like) used by the CPU 111. .
[0021]
The keyboard unit 114 is composed of a keyboard of the electronic organ 100, and includes a plurality of keyboards and a keyboard switch that opens and closes in response to key depression and key release. A key scan circuit 114a interposed between the keyboard unit 114 and the system bus 110 checks the state of the keyboard switch, and generates touch data indicating the strength (speed) of keyboard touch from a signal indicating ON / OFF of the key switch. At the same time, it outputs ON or OFF information and its keyboard number. The ON / OFF information, the keyboard number, and the touch data are sent to the CPU 111 via the system bus 110 as key press information.
[0022]
The panel operation unit 115 is provided with various switches such as a power switch and a tone selection switch, a mode selection touch panel, a volume variable device, and the like. The panel scan circuit 115a interposed between the panel operation unit 115 and the system bus 110 checks the set / reset state of each switch and the touch panel provided in the panel operation unit 115, and turns on the panel switch that is turned on. The data is detected and sent to the CPU 111.
[0023]
In the present embodiment, setting of a normal performance mode and an ensemble performance mode in which a melody is automatically added to a melody by the panel operation of the panel operation unit 115 (or a mode setting in which an automatic accompaniment can be added to these modes) ), And a tone color setting that can be set (selected) so that the user can play the keyboard with his favorite tone color.
[0024]
The display unit 116 is connected to the system bus 110 via a display control circuit 116a. Under the control of the CPU 111, various operation states of the panel operation unit 115, the operation state of the electronic organ 100, the mode setting state, This is a configuration in which a tone setting state and the like are displayed.
[0025]
FIG. 3 is a functional block diagram of a configuration according to the present invention in which the melody played by the player is incorporated into the electronic organ 100 as a configuration capable of performing an ensemble performance with a harmony. As shown in the figure, the configuration in which the ensemble performance function is executed is a timbre in which, when a performer selects a timbre by setting by the panel operation unit 115 and the panel scan circuit 115a, the timbre parameter is set. The setting unit 10, a code detection unit 11 that detects a code from key press information of the keyboard unit 114 scanned by the key scan circuit 114 a, and a preset default (or a panel operation unit 115) Harmony addition unit that allocates note data corresponding to each harmonic part, and sets a two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of tone for which the parameter is set. 12 and each note data of each harmony part for which sound image localization is set A key & tone assigner 13 corresponding to an assigning unit to be assigned to a predetermined channel of a tone generating circuit 117 described later, and note data corresponding to tone color data for which parameters are set are read out for each assigned tone generating channel to read a tone. And a tone generation unit 14 for generating a tone.
[0026]
In addition, in the present embodiment, for example, by operating the panel operation unit 115, an arbitrary point of the keyboard unit 114 is set as a split point, the left side is set as a chord specification area, the right side is set as a melody performance area, and key press information of the chord specification area is set. An automatic accompaniment unit 15 that performs automatic accompaniment may be provided in accordance with the above. The automatic accompaniment function of the automatic accompaniment unit 15 may perform automatic accompaniment based on the chord detected by the chord detection unit 11. The performance data of this automatic accompaniment is sent to the key & tone assigner 13 and is assigned to a tone generation channel.
[0027]
As described above, the tone color setting section 10 is constituted by the RAM 112 in which, when the player selects a tone color by the setting by the panel operation section 115 and the panel scan circuit 115a, the tone color setting is stored as a tone color parameter. ing.
[0028]
The chord detection unit 11 includes a CPU 111 and a ROM 113, and has a function of detecting a chord, that is, an additional sound, from key press information of the keyboard unit 114 scanned by the key scan circuit 114a. Specifically, when the ensemble performance mode is selected by the panel operation of the panel operation unit 115, the chord detection table (not shown) is used as the basic note with the note data of the melody part played by the keyboard set 114 by the set player. For example, a note three times above and four notes below the basic note are transmitted as additional sounds.
[0029]
The harmony adding section 12 is composed of the CPU 111, the RAM 112, and the ROM 113, and allocates note data (basic note data and additional sound data) corresponding to each preset harmony part from the detected code. And a function of setting the two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of the tone color for which the parameter is set.
[0030]
More specifically, as shown in FIG. 4, the configuration of the harmony adding unit 12 includes an allocation setting unit 12a for allocating and setting note data input from the chord detection unit 11 to each harmony part. A tone-specific harmony data setting storage unit 12b storing tone image localization setting parameters for each harmony part based on the timbre parameters set by the setting unit 10, and a sound image from the tone color-specific harmony data setting storage unit 12b to each harmony part A localization setting parameter is read out, and based on the readout parameter, a two-dimensional or three-dimensional sound image localization is set for the note data allocated and set to each harmony part by the allocation setting unit 12a, and the sound image localization setting is output to the outside. A portion 12c.
[0031]
The key & tone assigner 13 is constituted by the CPU 111 and has almost the same function as a normal key assigner. As described above, each note data of each harmony part for which sound image localization is set is converted to a musical tone. When assigning to the predetermined channels of the generation circuit 117, the tone color data and velocity data to be read in each channel are also instructed to the tone generation circuit 117 as parameters.
[0032]
The tone generator 14 includes a tone generator 117 having the above-described waveform memory 117a, a DSP effect adding circuit 118, a D / A converter 119, and a sound system 120. The basic function of reading out note data corresponding to tone data for which parameters are set for each assigned tone generating channel and generating a tone is performed by a tone generating circuit 117 having a waveform memory 117a.
[0033]
In the configuration of the embodiment described above, when a person who wants to play with the electronic organ 100 turns on the power, the electronic circuit of the electronic organ 100 is initialized as shown in the main processing routine of FIG. (Step S101).
[0034]
Then, a panel scan is performed (step S102). Here, a state change of the panel switch is detected, and when a switch event, that is, a state change of the panel switch is detected, a process corresponding to each switch is performed.
[0035]
Then, a keyboard process is performed (step S103), and a change in the keyboard state is detected. If a keyboard event, that is, a change in the key state is detected, a well-known process such as key assignment or key-off is performed.
[0036]
If the automatic accompaniment mode has been set in the panel processing, automatic performance processing is performed next (step S104). That is, if there is performance information that is in an automatic performance state and has a sounding timing, sounding is controlled in the same manner as a keyboard event.
[0037]
Thereafter, the additional sound processing described later is performed (step S105), and the sound generation of the additional sound is controlled.
[0038]
Finally, a process of displaying the setting state of the tone color, the tempo, and the like on the display unit 116, a process of updating control parameters for effects such as vibrato and drum gate processing in each channel performed by the DSP effect adding circuit 118, and the like are performed ( Step S106).
[0039]
FIG. 6 is a flowchart showing a processing procedure of the additional sound processing performed in step S105 of FIG. First, the additional sound determination processing (step S201) by the chord detection unit 11 is performed, and then the sound image localization setting processing by the harmony addition unit 12 is performed (step S202).
[0040]
Here, the additional sound determination processing in step S201 is as described above, and the details are omitted.
[0041]
FIG. 7 is an explanatory diagram showing a setting state of the two-dimensional sound image localization in the harmony adding unit 12 when a trio (vocal) tone color is set by the panel operation unit 115. As described above, the chord detecting unit 11 outputs note data three times higher and four times lower than the basic note (key note) data. When these note data are input to the harmony adding section 12, the note setting section 12a assigns respective note data to each harmonic part.
[0042]
On the other hand, two-dimensional harmony data setting information is read out from the timbre-specific harmony data setting storage unit 12b based on the timbre parameters set in the timbre setting unit 10 by the panel operation of the panel operation unit 115, and the sound image localization setting unit 12c is read. Sent to Based on this, the sound image localization setting unit 12c performs sound image localization setting for each harmonic part as shown in FIG. That is, in the harmonic part to which the basic note data is assigned, the volume depths of the R side and the L side are respectively set to 70, and in the harmonic part to which the note data three times higher is assigned, the volume depth of the R side is 100. In the harmony part to which the L and L side volume depths are set to 40 and the note data four degrees below are assigned, the R side volume depth is set to 40 and the L side volume depth is set to 100. Each of these harmoniciparts can express the spread in the horizontal direction by performing the pan setting as described above. Therefore, each delay time is set to 0 ms.
[0043]
FIG. 8 shows the setting state of the three-dimensional sound image localization in the harmony adding unit 12 when the timbre setting of the chorus (vocal) in which the three persons are arranged in rows A, B, and C by the panel operation unit 115. FIG. As described above, the chord detecting unit 11 outputs note data three times higher and four times lower than the basic note (key note) data. When these note data are input to the harmony adding section 12, the note setting section 12a assigns respective note data to each harmonic part.
[0044]
On the other hand, three-dimensional harmony data setting information is read from the timbre-specific harmony data setting storage unit 12b based on the timbre parameters set in the timbre setting unit 10 by the panel operation of the panel operation unit 115, and the sound image localization setting unit 12c is read. Sent to Based on this, the sound image localization setting unit 12c performs sound image localization setting for each harmony part as shown in FIG. That is, in the harmonic part to which the basic note data is assigned, the volume depths of the R side and the L side are respectively set to 70, and in the harmonic part to which the note data three times higher is assigned, the volume depth of the R side is 100. In the harmony part to which the L and L side volume depths are set to 40 and the note data four degrees below are assigned, the R side volume depth is set to 40 and the L side volume depth is set to 100. Each of these harmoniciparts can express the spread in the horizontal direction by performing the above setting.
[0045]
On the other hand, in the depth direction of the rows A, B, and C, since each row has a distance, each sound image localization is delayed. Therefore, in the first column A, the delay time is set to 0 ms, but in the next column B, the delay time is set to 5 ms, and in the column C, the delay time is set to 10 ms. By doing so, the sound image localization in the depth direction can be set.
[0046]
FIG. 9 is a time chart showing the actually measured sound shift states in the rows A, B, and C when the three-dimensional sound image localization setting in FIG. 8 is performed. As shown in the figure, although the delay time of the row A is actually 0 ms in the actually sounded tone, there is actually a slight time lag, but in the rows B and C, the delay time is relative to the row A. Thus, it can be seen that the musical sound is output with a delay of the set delay time.
[0047]
According to the configuration of the present embodiment described above, the basic note data of the chord detected by the chord detection unit 11 is given to one harmonicipart by the harmony addition unit 12 for a predetermined number of harmony parts by default. Is assigned to it, and the remaining note data of the chord are assigned to different harmonic parts. Further, the two-dimensional or three-dimensional sound image localization of each harmony part is set by the harmony adding unit 12 based on the kind of timbre for which parameter setting is performed in the timbre setting unit 10 by panel setting. The key & tone assigner 13 assigns each note data of each harmony part to which the sound image localization is set to a tone generation channel, and the tone generation unit 14 sets a tone for each assigned tone generation channel. Each note data corresponding to the data is read, and a musical tone is generated. Therefore, in the electronic organ 100, when the ensemble performance mode is selected by the panel operation of the panel operation unit 115, the spatial expansion of the harmony is appropriately changed depending on the selected tone type (for example, the number of pianos is small, and the vocal is large). Etc.), and the ensemble performance can be easily enjoyed alone.
[0048]
Note that the electronic musical instrument of the present invention is not limited to the above-described embodiment, and it is needless to say that various changes can be made without departing from the scope of the present invention.
[0049]
【The invention's effect】
As described above, according to the electronic musical instrument according to the first to fourth aspects of the present invention, the spatial extent of the harmony can be appropriately changed depending on the type of the selected timbre. It is possible to achieve an excellent effect that it becomes possible to enjoy an ensemble performance.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of an electronic organ 100 equipped with a performance control device configuration according to an embodiment of the present invention.
FIG. 2 is a basic circuit diagram of the electronic organ 100.
FIG. 3 is a block diagram showing functional blocks of the present invention.
FIG. 4 is a block diagram showing a functional block configuration of a harmony adding section 12 in the configuration of the present invention.
FIG. 5 is a flowchart showing a main flow of the electronic organ 100.
FIG. 6 is a flowchart showing a processing procedure of additional sound processing performed in step S105.
FIG. 7 is an explanatory diagram showing a setting state of a two-dimensional sound image localization in a harmony adding unit 12 when a timbre setting of a trio (vocal) is performed.
FIG. 8 is an explanatory diagram showing a setting state of a three-dimensional sound image localization in the harmony adding unit 12 when a timbre setting of a chorus (vocal) in which three persons are arranged in three rows.
FIG. 9 is a time chart showing a state of a sound shift in rows A, B and C actually measured when three-dimensional sound image localization is set.
[Explanation of symbols]
REFERENCE SIGNS LIST 10 tone color setting unit 11 chord detection unit 12 harmony addition unit 12 a assignment setting unit 12 b timbre-specific harmonic data setting storage unit 12 c sound image localization setting unit 13 key & tone assigner 14 tone generator 15 automatic accompaniment unit 100 electronic organ 110 system bus 111 CPU
112 RAM
113 ROM
114 keyboard part 114a key scan circuit 115 panel operation part 115a panel scan circuit 116 display part 116a display control circuit 117 musical sound generation circuit 117a waveform memory 118 DSP effect adding circuit 119 D / A conversion circuit 120 sound system

Claims (4)

押鍵情報からコードを検出するコード検出手段と、
検出されたコードから、予め設定された各ハーモニパートに対応するノートデータを割り振りると共に、設定された音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定するハーモニ付加手段と、
音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生チャンネルに割り当てる割当手段と、
割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出し、楽音を発生せしめる楽音発生手段と
を有することを特徴とする電子楽器。
Code detection means for detecting a code from key press information;
Harmony adding means for allocating preset note data corresponding to each harmonic part from the detected chord, and setting a two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of the set timbre. ,
Allocating means for allocating each note data of each of the harmoniciparts for which the sound image localization is set to a musical tone generation channel,
An electronic musical instrument comprising: a tone generating means for reading out note data corresponding to tone color data for which parameters are set for each assigned tone generating channel and generating a tone.
押鍵情報からコードを検出するコード検出手段と、
押鍵情報に基づき自動伴奏を実行する自動伴奏手段と、
検出されたコードから、予め設定された各ハーモニパートに対応するノートデータを割り振りると共に、設定された音色の種類によって、各ハーモニパートの2次元又は3次元の音像定位を設定するハーモニ付加手段と、
音像定位の設定された夫々のハーモニパートの各ノートデータを、楽音発生チャンネルに割り当てると共に、自動伴奏実行による楽音発生チャンネルを同じく割り当てる割当手段と、
割り当てられた楽音発生チャンネル毎に、パラメータ設定された音色データに対応する各ノートデータを読み出し、楽音を発生せしめる楽音発生手段と
を有することを特徴とする電子楽器。
Code detection means for detecting a code from key press information;
Automatic accompaniment means for executing automatic accompaniment based on key press information;
Harmony adding means for allocating preset note data corresponding to each harmonic part from the detected chord, and setting a two-dimensional or three-dimensional sound image localization of each harmonic part according to the type of the set timbre. ,
Allocating means for allocating each note data of each of the harmoniciparts for which the sound image localization is set to a tone generation channel, and allocating the same tone generation channel by performing automatic accompaniment,
An electronic musical instrument comprising: a tone generating means for reading out note data corresponding to tone color data for which parameters are set for each assigned tone generating channel and generating a tone.
上記ハーモニ付加手段による2次元の音像定位の設定がなされる際、各パートの平面方向における音量を任意の状態に設定することを特徴とする請求項1又は請求項2記載の電子楽器。3. The electronic musical instrument according to claim 1, wherein, when the two-dimensional sound image localization is set by the harmony adding means, the volume of each part in the plane direction is set to an arbitrary state. 上記ハーモニ付加手段による3次元の音像定位の設定がなされる際、各パートの平面方向における音量を任意の状態に設定すると共に、奥行き方向におけるディレイ設定に違いを設けることを特徴とする請求項1又は請求項2記載の電子楽器。2. The method according to claim 1, wherein when the three-dimensional sound image localization is set by the harmony adding means, the volume of each part in the plane direction is set to an arbitrary state, and a difference is provided in the delay setting in the depth direction. Or the electronic musical instrument according to claim 2.
JP2002204958A 2002-07-15 2002-07-15 Electronic musical instrument Pending JP2004045902A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002204958A JP2004045902A (en) 2002-07-15 2002-07-15 Electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002204958A JP2004045902A (en) 2002-07-15 2002-07-15 Electronic musical instrument

Publications (1)

Publication Number Publication Date
JP2004045902A true JP2004045902A (en) 2004-02-12

Family

ID=31710382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002204958A Pending JP2004045902A (en) 2002-07-15 2002-07-15 Electronic musical instrument

Country Status (1)

Country Link
JP (1) JP2004045902A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007040068A1 (en) * 2005-09-30 2007-04-12 Pioneer Corporation Music composition reproducing device and music composition reproducing method
JP2015075753A (en) * 2013-10-12 2015-04-20 ヤマハ株式会社 Program, device and method for sound production state display
JP2021131882A (en) * 2012-12-20 2021-09-09 ストラブワークス エルエルシー System and method for providing three-dimensional extended audio

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58160992A (en) * 1982-03-19 1983-09-24 カシオ計算機株式会社 Electronic musical instrument
JPS58207092A (en) * 1982-05-28 1983-12-02 ヤマハ株式会社 Electronic musical instrument
JPH06202634A (en) * 1993-01-07 1994-07-22 Yamaha Corp Electronic musical instrument
JPH075873A (en) * 1994-05-23 1995-01-10 Yamaha Corp Sound processor
JPH08190375A (en) * 1995-01-12 1996-07-23 Matsushita Electric Ind Co Ltd Electronic instrument
JPH08263058A (en) * 1995-03-17 1996-10-11 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58160992A (en) * 1982-03-19 1983-09-24 カシオ計算機株式会社 Electronic musical instrument
JPS58207092A (en) * 1982-05-28 1983-12-02 ヤマハ株式会社 Electronic musical instrument
JPH06202634A (en) * 1993-01-07 1994-07-22 Yamaha Corp Electronic musical instrument
JPH075873A (en) * 1994-05-23 1995-01-10 Yamaha Corp Sound processor
JPH08190375A (en) * 1995-01-12 1996-07-23 Matsushita Electric Ind Co Ltd Electronic instrument
JPH08263058A (en) * 1995-03-17 1996-10-11 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007040068A1 (en) * 2005-09-30 2007-04-12 Pioneer Corporation Music composition reproducing device and music composition reproducing method
JPWO2007040068A1 (en) * 2005-09-30 2009-04-16 パイオニア株式会社 Music playback apparatus and music playback method
US7834261B2 (en) 2005-09-30 2010-11-16 Pioneer Corporation Music composition reproducing device and music composition reproducing method
JP4658133B2 (en) * 2005-09-30 2011-03-23 パイオニア株式会社 Music playback apparatus and music playback method
JP2021131882A (en) * 2012-12-20 2021-09-09 ストラブワークス エルエルシー System and method for providing three-dimensional extended audio
JP7389081B2 (en) 2012-12-20 2023-11-29 ストラブワークス エルエルシー System and method for providing three-dimensional enhanced audio
JP2015075753A (en) * 2013-10-12 2015-04-20 ヤマハ株式会社 Program, device and method for sound production state display

Similar Documents

Publication Publication Date Title
JP4752425B2 (en) Ensemble system
JP4748011B2 (en) Electronic keyboard instrument
US20050016366A1 (en) Apparatus and computer program for providing arpeggio patterns
US7109407B2 (en) Chord presenting apparatus and storage device storing a chord presenting computer program
JP2583809B2 (en) Electronic musical instrument
US7838754B2 (en) Performance system, controller used therefor, and program
JP2004045902A (en) Electronic musical instrument
US7381882B2 (en) Performance control apparatus and storage medium
JP2020060629A (en) Resonance sound signal generation device, resonance sound signal generation method, resonance sound signal generation program and electronic music device
JP2888712B2 (en) Music generator
JPH0822282A (en) Automatic accompaniment device for guitar
JP3933070B2 (en) Arpeggio generator and program
JP5011033B2 (en) Electronic musical instruments
JP4094441B2 (en) Electronic musical instruments
JP2619278B2 (en) Electronic musical instrument with rhythm solo performance function
KR100622564B1 (en) Electronic instrument
WO2018198381A1 (en) Sound-generating device, method, and musical instrument
JP5560581B2 (en) Electronic musical instruments
JPH06250650A (en) Electronic musical instrument
JPH0816166A (en) Rhythm selecting device
JPH07152374A (en) Electronic musical instrument
JPH06348267A (en) Electronic musical instrument
JPH06250657A (en) Electronic musical instrument
JPH06318078A (en) Automatic scale generating device
JP2006171499A (en) Electronic musical instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070911