JP5169300B2 - Music signal output device - Google Patents

Music signal output device Download PDF

Info

Publication number
JP5169300B2
JP5169300B2 JP2008042597A JP2008042597A JP5169300B2 JP 5169300 B2 JP5169300 B2 JP 5169300B2 JP 2008042597 A JP2008042597 A JP 2008042597A JP 2008042597 A JP2008042597 A JP 2008042597A JP 5169300 B2 JP5169300 B2 JP 5169300B2
Authority
JP
Japan
Prior art keywords
sound
localization
musical
image localization
musical sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008042597A
Other languages
Japanese (ja)
Other versions
JP2009198947A (en
Inventor
誠 桂浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008042597A priority Critical patent/JP5169300B2/en
Publication of JP2009198947A publication Critical patent/JP2009198947A/en
Application granted granted Critical
Publication of JP5169300B2 publication Critical patent/JP5169300B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、複数系統の各音の音像定位を設定して、ステレオ再生が可能なスピーカ等の楽音発生装置で発音させる楽音信号出力装置に関する。   The present invention relates to a musical sound signal output device that sets sound image localization of each sound of a plurality of systems and causes a musical sound generator such as a speaker capable of stereo reproduction to generate sound.

従来、ドラム音等の音像定位が個別に設定される複数系統の音を、ステレオ再生が可能なスピーカ等の楽音発生装置で発音させる楽音信号出力装置が知られている。   2. Description of the Related Art Conventionally, a musical sound signal output device is known in which a plurality of systems of sounds, such as drum sounds, whose sound image localization is individually set are generated by a musical sound generator such as a speaker capable of stereo reproduction.

例えば、下記特許文献1の装置では、自動演奏すべき音楽のジャンルに応じてドラム楽器音の定位を変えることができる。また、下記特許文献2の装置では、楽音発音ごとまたは楽音パートごとに音像定位を変えて、楽音の内容に応じて音像を変化させることができる。
特開平06−348258号公報 特開平04−306697号公報
For example, in the apparatus of Patent Document 1 below, the localization of drum instrument sounds can be changed according to the genre of music to be automatically played. Further, in the apparatus of Patent Document 2 below, the sound image localization can be changed for each tone generation or each tone part, and the sound image can be changed according to the contents of the tone.
Japanese Patent Laid-Open No. 06-348258 Japanese Patent Laid-Open No. 04-306697

しかしながら、上記特許文献1、2においては、一旦、各系統の音の音像定位が設定されると、仮に、用いる楽音発生装置を切り替え可能に構成し、切り替えたとしても、各系統の音の音像定位は設定されたままの状態で発音がなされることになる。   However, in Patent Documents 1 and 2, once the sound image localization of each system sound is set, the musical sound generator to be used is configured to be switchable, and even if it is switched, the sound image of each system sound The sound is produced with the localization set.

また、マニュアル演奏による音を再生させる場合においても、各系統の音の音像定位は、その時点で設定されている定位に従ったものとなり、楽音発生装置の切り替えによって変わるものではない。   In addition, when reproducing a sound by manual performance, the sound image localization of the sound of each system follows the localization set at that time, and does not change by switching of the musical sound generator.

楽音発生装置には、装置本体に備えられた内蔵スピーカ、ライン接続等される外付けの外部スピーカ、及びヘッドホン等がある。一般に、内蔵スピーカの左右のスピーカの間隔に比し、外部スピーカの左右のスピーカの間隔の方が広い。   The musical sound generating device includes a built-in speaker provided in the device main body, an external external speaker connected through a line, etc., headphones, and the like. In general, the distance between the left and right speakers of the external speaker is wider than the distance between the left and right speakers of the built-in speaker.

内蔵スピーカは、奏者が自己の演奏を聴くのに有用で、音像の左右の広がり幅である分散幅は広いのが適切と考えられる。一方、広いホールにおいて演奏を外部スピーカで多数の聴衆に聞かせる場合のように、スピーカ間隔が広く設定される場合は、音像の分散幅をあまり広くしないのが適切と考えられる。また、ヘッドホン出力の場合も、適切な音像の分散幅は、スピーカ出力の場合とは異なる場合がある。   The built-in speaker is useful for the player to listen to his / her performance, and it is appropriate that the dispersion width, which is the left / right spread width of the sound image, is wide. On the other hand, when the speaker interval is set wide, such as when the performance is heard by a large number of audiences with an external speaker in a wide hall, it is considered appropriate not to widen the dispersion width of the sound image. Also, in the case of headphone output, an appropriate sound image dispersion width may be different from that in the case of speaker output.

本発明は上記従来技術の問題を解決するためになされたものであり、その目的は、選択した楽音発生装置に適した音像設定にて楽音再生を行うことができる楽音信号出力装置を提供することにある。   The present invention has been made to solve the above-described problems of the prior art, and an object of the present invention is to provide a musical tone signal output device that can perform musical tone reproduction with sound image settings suitable for the selected musical tone generator. It is in.

上記目的を達成するために本発明の請求項1の楽音信号出力装置は、音像定位における相対的関係(ST)が定められた複数系統の音を発音させるための楽音信号を、ステレオ再生が可能な異なる複数の楽音発生装置(24)のうち選択した楽音発生装置に出力し、前記出力した楽音信号を前記選択した楽音発生装置で音響にすることが可能な楽音信号出力装置であって、自動演奏またはマニュアル演奏による発音の指示を受け付ける発音指示受付手段(21、22、23)と、前記複数の楽音発生装置のうち1つを選択する装置選択手段(23、11)と、前記複数系統の音の音像定位における左右方向の広がりである分散幅及び前記分散幅の左右方向の広がりの中心であるセンター位置を、複数の楽音発生装置のそれぞれに定めるための分散幅情報(BS)及びセンター位置情報取得する情報取得手段と、前記装置選択手段により選択された楽音発生装置に対応する前記分散幅情報及び前記センター位置情報に基づいて、前記複数系統の音の各々の音像定位を、前記定められた音像定位における相対的関係を維持しつつ設定する定位設定手段(11)と、前記発音指示受付手段により受け付けられた発音の指示に従って、各系統の音が、前記定位設定手段により設定された音像定位で発音されるような楽音信号を生成する楽音信号生成手段(11、19)と、前記楽音信号生成手段により生成された楽音信号を前記装置選択手段により選択された楽音発生装置に対して出力する楽音信号出力手段(11、20)とを有することを特徴とする。 In order to achieve the above object, the musical tone signal output apparatus according to claim 1 of the present invention is capable of stereo reproduction of musical tone signals for generating sounds of a plurality of systems in which the relative relationship (ST) in sound image localization is defined. A musical tone signal output device capable of outputting to a selected musical tone generator out of a plurality of different musical tone generators (24) and converting the outputted musical tone signal into sound by the selected musical tone generator, Sound generation instruction receiving means (21, 22, 23) for receiving a sound generation instruction by performance or manual performance, apparatus selection means (23, 11) for selecting one of the plurality of musical sound generating apparatuses, and the plurality of systems the center position is the center in the lateral direction of the extent of a lateral direction of the extent of the dispersion width and the dispersion width of the sound image localization of the sound, for determining each of the plurality of musical tone generating apparatus Information acquisition means for acquiring Chihaba information (BS) and the center position information, on the basis of the dispersion width information and the center position information corresponding to the tone generator device selected by the device selecting unit, before Symbol plurality of channels The sound localization of each system is set in accordance with the localization setting means (11) for setting the sound image localization of each sound while maintaining the relative relationship in the determined sound image localization, and the sound generation instruction received by the sound generation instruction reception means. Is a musical tone signal generating means (11, 19) for generating a musical tone signal that is sounded with the sound image localization set by the localization setting means, and the musical instrument signal generated by the musical tone signal generating means is the device selecting means. And a musical tone signal output means (11, 20) for outputting to the musical tone generator selected by the above.

さらに、以下のように構成してもよい。   Furthermore, you may comprise as follows.

記2つのスピーカ間の配置間隔を自動測定する手段を有する。あるいは、前記外付け楽音発生装置には、前記2つのスピーカ間の配置間隔を自動測定する測定手段(25)が設けられており、該測定手段により測定された配置間隔の情報を取得する手段(17)を有する。 Having means for automatically determining the arrangement interval between the previous SL two loudspeakers. Alternatively, the external musical tone generator is provided with a measuring means (25) for automatically measuring the arrangement interval between the two speakers, and means for obtaining information on the arrangement interval measured by the measuring means ( 17).

記複数の楽音発生装置の各々は、自己を識別させるための識別情報を保持しており、前記複数の楽音発生装置の1つを択一的に接続し、該接続した楽音発生装置からその識別情報を自動取得する取得手段(17)を有し、前記装置選択手段は、前記取得手段により取得された識別情報に対応する楽音発生装置を選択する。 Each of the previous SL plurality of musical tone generating apparatus holds identification information for identifying the self, and alternatively connected to one of said plurality of tone generating device from its tone generating apparatus the connection It has an acquisition means (17) for automatically acquiring identification information, and the apparatus selection means selects a musical sound generating apparatus corresponding to the identification information acquired by the acquisition means.

なお、上記括弧内の符号は例示である。   In addition, the code | symbol in the said parenthesis is an illustration.

本発明の請求項1によれば、選択した楽音発生装置に適した音像設定にて楽音再生を行うことができる。   According to the first aspect of the present invention, it is possible to reproduce a musical sound with a sound image setting suitable for the selected musical sound generator.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施の形態に係る楽音信号出力装置の全体構成を示すブロック図である。本楽音信号出力装置は、一例として電子打楽器として構成される。   FIG. 1 is a block diagram showing the overall configuration of a musical tone signal output apparatus according to an embodiment of the present invention. The musical tone signal output device is configured as an electronic percussion instrument as an example.

本楽音信号出力装置は、ROM12、RAM13、タイマ14、記憶装置15、表示装置16、各種インターフェイス17、操作子インターフェイス18、音源回路19及び効果回路20が、バス10を介してCPU11にそれぞれ接続されて構成される。操作子インターフェイス18には、パッド群21、足で操作するハイハットコントローラ22、及びパネル操作子23が接続される。効果回路20は音源回路19に接続され、効果回路20には、楽音発生装置24が接続される。   In this musical tone signal output device, a ROM 12, a RAM 13, a timer 14, a storage device 15, a display device 16, various interfaces 17, an operator interface 18, a tone generator circuit 19 and an effect circuit 20 are connected to the CPU 11 via the bus 10. Configured. A pad group 21, a hi-hat controller 22 operated with a foot, and a panel operator 23 are connected to the operator interface 18. The effect circuit 20 is connected to the tone generator circuit 19, and the musical sound generator 24 is connected to the effect circuit 20.

パッド群21には、個々に打撃される複数のパッドA、パッドB・・・パッドFが含まれる。各パッドには、打撃を検出する不図示のセンサが備えられ、打撃の検出信号がキーオン信号として操作子インターフェイス18を介してCPU11に供給される。パネル操作子23には、各種情報を入力するための複数のスイッチが含まれる。ハイハットコントローラ22及びパネル操作子23の操作による信号も、操作子インターフェイス18を介してCPU11に供給される。   The pad group 21 includes a plurality of pads A, pads B,. Each pad is provided with a sensor (not shown) that detects a hit, and a hit detection signal is supplied as a key-on signal to the CPU 11 via the operator interface 18. The panel operator 23 includes a plurality of switches for inputting various information. Signals generated by operations of the hi-hat controller 22 and the panel operator 23 are also supplied to the CPU 11 via the operator interface 18.

CPU11は、本装置全体の制御を司る。ROM12は、CPU11が実行する制御プログラムや各種テーブルデータ等を記憶する。RAM13は、演奏データ、テキストデータ等の各種入力情報、各種フラグやバッファデータ及び演算結果等を一時的に記憶する。タイマ14はCPU11に接続され、タイマ割り込み処理における割り込み時間等の各種時間を計時する。記憶装置15は、制御プログラムや演奏データ、各種データ等を記憶する。   The CPU 11 controls the entire apparatus. The ROM 12 stores a control program executed by the CPU 11 and various table data. The RAM 13 temporarily stores various input information such as performance data and text data, various flags, buffer data, and calculation results. The timer 14 is connected to the CPU 11 and measures various times such as an interrupt time in the timer interrupt process. The storage device 15 stores control programs, performance data, various data, and the like.

表示装置16は各種情報を表示する。各種インターフェイス17には、MIDI(Musical Instrument Digital Interface)インターフェイス、有線または無線の通信インターフェイス、その他のインターフェイスが含まれる。音源回路19は、パッド群21、ハイハットコントローラ22から入力される演奏データや、予め記憶された演奏データ等を楽音信号に変換する。効果回路20は、音源回路19から入力される楽音信号に各種効果を付与し、それを楽音発生装置24に出力する。楽音発生装置24は、効果回路20から入力される楽音信号を音響に変換する。   The display device 16 displays various information. The various interfaces 17 include a MIDI (Musical Instrument Digital Interface) interface, a wired or wireless communication interface, and other interfaces. The tone generator circuit 19 converts performance data input from the pad group 21 and hi-hat controller 22, performance data stored in advance, and the like into musical tone signals. The effect circuit 20 gives various effects to the tone signal input from the tone generator circuit 19 and outputs it to the tone generator 24. The musical tone generator 24 converts the musical tone signal input from the effect circuit 20 into sound.

楽音発生装置24には、少なくとも、ヘッドホン24−1、本体スピーカ24−2、標準外部スピーカ24−3、間隔測定機能付外部スピーカ24−4が含まれ、これらはいずれもステレオの楽音発生が可能である。ただし、後述するように、これら4つの楽音発生装置のうち、実際に楽音出力に用いられるのは、選択された1つである。また、本体スピーカ24−2は、本装置に内蔵されているものであるが、ヘッドホン24−1、外部スピーカ24−3、24−4は、本装置とは物理的に分離されていて、不図示の接続端子を介して接続される。楽音発生装置24の数は問わず、複数であればよい。   The musical sound generator 24 includes at least a headphone 24-1, a main body speaker 24-2, a standard external speaker 24-3, and an external speaker 24-4 with a distance measuring function, all of which can generate stereo musical sounds. It is. However, as will be described later, out of these four tone generators, only one selected is actually used for tone output. The main body speaker 24-2 is built in the apparatus, but the headphones 24-1 and the external speakers 24-3, 24-4 are physically separated from the apparatus and are not used. The connection is made via the illustrated connection terminal. The number of the musical sound generating devices 24 is not limited and may be plural.

従って、楽音発生装置24のうち、本体スピーカ24−2だけが、本装置の構成要素である。間隔測定機能付外部スピーカ24−4は、測距部25と、互いに離間配置可能な左スピーカ24−4L及び右スピーカ24−4Rとで構成される。測距部25は、左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔を測定し、測定結果を表示するか、あるいは本装置や外部に結果を出力する機能を有する。測距部25における測距機構の構成は問わないが、例えば、左スピーカ24−4L及び右スピーカ24−4Rのいずれか一方に、他方との距離を測定するための三角測量等の光学的な測距機能を設けることが考えられる。あるいは、超音波を利用した測距機構でもよい。   Accordingly, only the main body speaker 24-2 of the musical sound generating device 24 is a component of the present device. The external speaker with interval measuring function 24-4 includes a distance measuring unit 25, and a left speaker 24-4L and a right speaker 24-4R that can be spaced apart from each other. The distance measuring unit 25 has a function of measuring the arrangement interval between the left speaker 24-4L and the right speaker 24-4R and displaying the measurement result or outputting the result to the apparatus or the outside. The structure of the distance measuring mechanism in the distance measuring unit 25 is not limited. For example, one of the left speaker 24-4L and the right speaker 24-4R is optically measured such as triangulation for measuring the distance from the other. It is conceivable to provide a distance measuring function. Alternatively, a distance measuring mechanism using ultrasonic waves may be used.

なお、本装置で生成した楽音信号を楽音発生装置24に出力してステレオ音響にすることができる出力部があればよく、効果回路20を経由する構成に限られず、別途のインターフェイスを通じて出力するようにしてもよい。   It should be noted that an output unit that can output the musical sound signal generated by the present apparatus to the musical sound generating apparatus 24 to produce a stereo sound is not limited to the configuration via the effect circuit 20 and is output through a separate interface. It may be.

パッド群21のパッドA〜Fには、互いに異なる音色が割り当てられる。パッドA〜Fでの打撃操作に基づく音は、異なる系統の音として扱われ、各音色ごとに定位が個別に設定される。各音色の音の音像定位(以下、単に「定位」ともいう)における相対的関係の初期設定は予め定められている。具体的には、本実施の形態では、各パッドA〜Fのそれぞれに異なる発音チャンネルが割り当てられ、発音チャンネルごとに定位が設定される。各パッドA〜Fに対応する音の定位は、ROM12に記憶される定位テーブルTB(図3で後述)によって定められる。   Different timbres are assigned to the pads A to F of the pad group 21. The sound based on the striking operation on the pads A to F is handled as a sound of a different system, and the localization is individually set for each tone color. The initial setting of the relative relationship in sound image localization (hereinafter also simply referred to as “localization”) of the sound of each tone color is determined in advance. Specifically, in this embodiment, different sound generation channels are assigned to the respective pads A to F, and the localization is set for each sound generation channel. The sound localization corresponding to each of the pads A to F is determined by a localization table TB (described later in FIG. 3) stored in the ROM 12.

図2(a)〜(c)は、聴衆側からみた各パッドA〜Fに対応する音の定位を示す概念図である。図3は、定位テーブルTBの概念図である。以降、パッドA〜Fに対応する音を「音A〜F」と略記する。パッドA〜Fに割り当てられるドラム音色は、一例として、順に、ライドシンバル、タム、バスドラム、スネアドラム、クラッシュシンバル、ハイハットシンバルであるが、これらに限られず、数も複数であればよい。なお、ハイハットコントローラ22に対応させる音を音A〜Fにさらに加えてもよい。あるいは、音A〜Fのいずれか(例えば、バスドラムが割り当てられている音C)にパッドに代えてハイハットコントローラ22を対応させてもよい。   FIGS. 2A to 2C are conceptual diagrams showing sound localization corresponding to the pads A to F as viewed from the audience side. FIG. 3 is a conceptual diagram of the localization table TB. Hereinafter, sounds corresponding to the pads A to F are abbreviated as “sounds A to F”. For example, the drum timbres assigned to the pads A to F are, in order, a ride cymbal, a tom, a bass drum, a snare drum, a crash cymbal, and a hi-hat cymbal. Note that sounds corresponding to the hi-hat controller 22 may be further added to the sounds A to F. Alternatively, the hi-hat controller 22 may correspond to any of the sounds A to F (for example, the sound C to which the bass drum is assigned) instead of the pad.

まず、音A〜Fの定位における相対的関係は、これらのうち1つの特定の音からの仮想距離で規定される。初期設定では、図2(a)に示すように、音A〜Fの定位は、左から順に、音A、B・・・Fとなっている。ここで、ある設定された定位において、センター位置31Cに定位される音の1つを特定の音(ここでは音C)とする。この特定の音の定位位置から、最も離れている音(ここでは音F)までの仮想距離を基準値とし、この基準値を「シフト率ST(図2、図3参照)」とし、その値を+1.0とする。そして、他の音A〜Eについては、音Cの定位位置からの仮想距離を、上記と同様の意義のシフト率STで規定する。その際、シフト率STには、音Cより右側のものに“+”、左側のものに“−”の符号がそれぞれ付される。例えば、音Aのシフト率STは−0.8、音Bのシフト率STは−0.4である(図2(a)、図3参照)。   First, the relative relationship in localization of the sounds A to F is defined by a virtual distance from one specific sound among them. In the initial setting, as shown in FIG. 2A, the localization of the sounds A to F is the sounds A, B,. Here, in a certain localization, one of the sounds localized at the center position 31C is set as a specific sound (here, the sound C). The virtual distance from the specific sound localization position to the farthest sound (sound F in this case) is set as a reference value, and this reference value is set as “shift rate ST (see FIGS. 2 and 3)”. Is set to +1.0. For the other sounds A to E, the virtual distance from the localization position of the sound C is defined by the shift rate ST having the same significance as described above. At this time, the shift rate ST is given a sign “+” on the right side of the sound C and a sign “−” on the left side. For example, the shift rate ST of the sound A is −0.8, and the shift rate ST of the sound B is −0.4 (see FIG. 2A and FIG. 3).

また、図2(a)に示すように、音像定位において、各音の左右方向への広がりを規定する分散幅BSを、例えば、0〜127の範囲の値で規定する。分散幅BSは、センター位置31Cから、最も離れている音(ここでは音F)までの間隔の2倍の値である。左限位置31Lから右限位置31Rまでの範囲は、分散幅BSを拡大可能な最大限の範囲であって、最大幅Bmaxである。この最大幅Bmaxまで拡大した分散幅BSの値は、図2(a)に示すように、例えば、「127」である。図2(a)の定位設定例では、音A〜Fの分散幅BSは、「100」であり、同様に、図2(b)、(c)の定位設定例では、「70」、「40」である。分散幅BSが0である場合は、すべての音がセンター位置31Cに位置する(実質モノラル)。図2(a)〜(c)のいずれも、各音A〜Fの相対的関係、すなわち、各々のシフト率STは同じである。   Also, as shown in FIG. 2A, in the sound image localization, a dispersion width BS that defines the spread of each sound in the left-right direction is defined by a value in the range of 0 to 127, for example. The dispersion width BS is a value twice the interval from the center position 31C to the farthest sound (sound F in this case). The range from the left limit position 31L to the right limit position 31R is the maximum range in which the dispersion width BS can be expanded, and is the maximum width Bmax. The value of the dispersion width BS expanded to the maximum width Bmax is, for example, “127” as shown in FIG. In the localization setting example of FIG. 2A, the dispersion width BS of the sounds A to F is “100”, and similarly, in the localization setting examples of FIGS. 2B and 2C, “70”, “ 40 ". When the dispersion width BS is 0, all sounds are located at the center position 31C (substantially monaural). 2A to 2C, the relative relationship between the sounds A to F, that is, the respective shift rates ST are the same.

センター位置31Cは、左限位置31Lと右限位置31Rとの中間相当の位置である。センター位置31Cを左右方向にシフトさせる場合(図8(d)〜(f))は、初期設定の値「0」に対して、センター位置31Cの値が+または−の値とされる。   The center position 31C is a position corresponding to the middle between the left limit position 31L and the right limit position 31R. When the center position 31C is shifted in the left-right direction (FIGS. 8D to 8F), the value of the center position 31C is a value of + or − with respect to the initial value “0”.

図3に示すように、定位テーブルTBにおいては、センター位置31C、分散幅BS、シフト率STが規定されている。センター位置31Cについては、いずれの楽音発生装置24でも同一の値(「0」)となっている。分散幅BSについては、ヘッドホン24−1、本体スピーカ24−2、標準外部スピーカ24−3に対応して、それぞれ「100」、「100」、「70」の値が規定されている。また、間隔測定機能付外部スピーカ24−4に対応する分散幅BSについては、左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔によって値が異なり、「近い」、「中間」、「遠い」のそれぞれに、「100」、「70」、「40」の値が規定されている。なお、「近い」、「中間」、「遠い」の3段階に限られず、複数段階であればよい。   As shown in FIG. 3, in the localization table TB, a center position 31C, a dispersion width BS, and a shift rate ST are defined. The center position 31C has the same value (“0”) in any of the musical tone generators 24. Regarding the dispersion width BS, values of “100”, “100”, and “70” are defined corresponding to the headphones 24-1, the main body speaker 24-2, and the standard external speaker 24-3, respectively. Further, the value of the dispersion width BS corresponding to the external speaker 24-4 with the interval measurement function varies depending on the arrangement interval between the left speaker 24-4L and the right speaker 24-4R, and is “close”, “middle”, “far”. , Values of “100”, “70”, and “40” are defined. Note that the number of levels is not limited to “near”, “middle”, and “far”, and may be a plurality of levels.

シフト率STについては、いずれの楽音発生装置24でも共通であるが、音A〜Fのそれぞれに個別の値が設定されていて、それぞれ、「−0.8」、「−0.4」、「0」、「+0.2」、「+0.5」、「+1.0」の値となっている。センター位置31C、分散幅BS及びシフト率STを総称して「定位パラメータ」とする。定位テーブルTBによって、定位パラメータが、各音A〜Fごとに、しかも選択された1つの楽音発生装置24に対応する値として設定される。   The shift rate ST is common to all the musical sound generators 24, but individual values are set for the sounds A to F, respectively, “−0.8”, “−0.4”, The values are “0”, “+0.2”, “+0.5”, and “+1.0”. The center position 31C, the dispersion width BS, and the shift rate ST are collectively referred to as a “localization parameter”. With the localization table TB, localization parameters are set for each sound A to F as a value corresponding to one selected musical sound generator 24.

定位テーブルTB内の値はすべて例示であり、大小関係も含めこれらの値に限られない。また、例えば、ヘッドホン24−1では、本体スピーカ24−2に対して分散幅BSを異ならせてもよい。   The values in the localization table TB are all examples, and are not limited to these values including the magnitude relationship. For example, in the headphone 24-1, the dispersion width BS may be different from that of the main body speaker 24-2.

後述する各処理により、実際に楽音出力に用いられる楽音発生装置24として、ヘッドホン24−1または本体スピーカ24−2が選択された場合は、定位テーブルTBにより、センター位置31Cが「0」、分散幅BSが「100」にそれぞれ設定され、図2(a)に示すような音像定位となる。同様に、標準外部スピーカ24−3が選択された場合は、図2(b)に示すような音像定位となる。また、間隔測定機能付外部スピーカ24−4が選択され、且つ、左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔が、「遠い」に該当した場合は、図2(c)に示すような音像定位となる。なお、楽音発生装置24の選択の初期設定(デフォルト)は、例えば、標準外部スピーカ24−3となっている。   When the headphone 24-1 or the main body speaker 24-2 is selected as the musical tone generator 24 that is actually used for musical tone output by each processing described later, the center position 31C is “0” and distributed by the localization table TB. The width BS is set to “100”, and the sound image localization as shown in FIG. Similarly, when the standard external speaker 24-3 is selected, the sound image localization is as shown in FIG. In addition, when the external speaker 24-4 with the interval measurement function is selected and the arrangement interval between the left speaker 24-4L and the right speaker 24-4R corresponds to “far”, it is shown in FIG. Sound image localization like this. Note that the initial setting (default) of the selection of the musical sound generator 24 is, for example, the standard external speaker 24-3.

図4は、本実施の形態におけるメイン処理のフローチャートを示す図である。本処理は本装置の電源のオン時に開始される。   FIG. 4 is a diagram showing a flowchart of the main processing in the present embodiment. This process is started when the apparatus is turned on.

まず、初期化を実行、すなわち所定プログラムの実行を開始し、各種レジスタに初期値を設定して初期設定を行う(ステップS101)。次いで、パネル操作子23の操作(パネル入力)の有無を判別し(ステップS102)、パネル入力がない場合は、パッド群21、ハイハットコントローラ22による演奏入力を受け付け(ステップS108)、後述する図6の発音処理を実行して(ステップS109)、前記ステップS102に戻る。   First, initialization is executed, that is, execution of a predetermined program is started, initial values are set in various registers, and initial setting is performed (step S101). Next, it is determined whether or not the panel operator 23 is operated (panel input) (step S102). If there is no panel input, performance input by the pad group 21 and the hi-hat controller 22 is accepted (step S108). Is executed (step S109), and the process returns to step S102.

一方、前記ステップS102で何らかのパネル入力があった場合は、それが音像定位変更に関するものであれば、後述する図7の音像定位変更処理を実行して(ステップS103、S104)、前記ステップS108に戻る。パネル入力が楽音発生部設定に関するものであれば、後述する図5の楽音発生部設定処理を実行して(ステップS105、S106)、前記ステップS108に戻る。パネル入力が音像定位変更や楽音発生部設定に関するものでないその他の指示である場合は、該その他の入力指示を実行して(ステップS107)、前記ステップS108に戻る。   On the other hand, if there is any panel input in step S102, if it is related to the sound image localization change, the sound image localization change process of FIG. 7 described later is executed (steps S103 and S104), and the process proceeds to step S108. Return. If the panel input relates to the tone generator setting, the tone generator setting process of FIG. 5 described later is executed (steps S105 and S106), and the process returns to step S108. If the panel input is another instruction not related to the sound image localization change or the tone generator setting, the other input instruction is executed (step S107), and the process returns to step S108.

図5は、図4のステップS106で実行される楽音発生部設定処理のフローチャートである。まず、表示装置16(図1参照)に、メニュー表示として、全4種類の楽音発生装置24の選択用項目を表示し、(ステップS201)、楽音出力に用いる1つの楽音発生装置の選択乃至変更を受け付ける(ステップS202)。ユーザは、表示されたものの中から1つを選択状態にする。   FIG. 5 is a flowchart of the tone generation unit setting process executed in step S106 of FIG. First, on the display device 16 (refer to FIG. 1), selection items for all four types of musical sound generating devices 24 are displayed as menu displays (step S201), and one musical sound generating device used for musical sound output is selected or changed. Is received (step S202). The user selects one of the displayed items.

次に、間隔測定機能付外部スピーカ24−4が選択されている場合にだけ、左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔の値の入力を受け付ける(ステップS204)。例えば、ユーザが、測距部25において表示されている配置間隔の測定結果の値を把握し、それを、パネル操作子23を用いて手入力する。次に、ステップS205に進む。間隔測定機能付外部スピーカ24−4以外が選択されている場合も、ステップS205に進む。   Next, only when the external speaker 24-4 with the interval measurement function is selected, the input of the value of the arrangement interval between the left speaker 24-4L and the right speaker 24-4R is accepted (step S204). For example, the user grasps the value of the measurement result of the arrangement interval displayed in the distance measuring unit 25 and manually inputs it using the panel operation element 23. Next, the process proceeds to step S205. Also when other than the external speaker 24-4 with the interval measurement function is selected, the process proceeds to step S205.

ステップS205では、前記ステップS202で選択状態となった楽音発生装置24に対応する定位パラメータを、定位テーブルTB(図3)に基づき、各音A〜Fごと、すなわち、音色ごとに決定し、本処理を終了する。その際、間隔測定機能付外部スピーカ24−4が選択されている場合にあっては、上記入力された配置間隔の値が「近い」、「中間」、「遠い」のいずれに該当するかによって、分散幅BSを決定する(図3参照)。   In step S205, the localization parameter corresponding to the musical tone generator 24 selected in step S202 is determined for each sound A to F, that is, for each tone color, based on the localization table TB (FIG. 3). The process ends. At that time, in the case where the external speaker 24-4 with the interval measuring function is selected, depending on whether the value of the input arrangement interval corresponds to “near”, “middle”, or “far”. Then, the dispersion width BS is determined (see FIG. 3).

本処理では、選択する楽音発生装置24を変更すれば、前記ステップS205で、その楽音発生装置24に応じた定位パラメータが設定されるが、シフト率STについては全楽音発生装置24で共通であるから(図3参照)、音A〜Fの定位における相対的関係は維持される。   In this process, if the musical tone generator 24 to be selected is changed, the localization parameter corresponding to the musical tone generator 24 is set in step S205, but the shift rate ST is common to all musical tone generators 24. (See FIG. 3), the relative relationship in localization of the sounds A to F is maintained.

図6は、図4のステップS109で実行される発音処理のフローチャートである。まず、自動演奏実行中であるか否かを判別する(ステップS301)。自動演奏とは、外部から取り込んだ、あるいは予めROM12または記憶装置15に記憶されている、MIDIデータ等の自動演奏データの選曲を受け付けて、該自動演奏データに従って、自動再生を行う処理である。自動演奏に関する指示の受け付けは、パネル操作子23でなされる。本実施の形態では、自動演奏データとしては、音A〜Fに対応するドラム楽器音の発音データでなるものが主に想定される。なお、パッド群21、ハイハットコントローラ22のマニュアル演奏操作による楽音発生は、自動演奏の実行中である場合にも可能である。   FIG. 6 is a flowchart of the sound generation process executed in step S109 of FIG. First, it is determined whether or not automatic performance is being executed (step S301). The automatic performance is a process of accepting music selection of automatic performance data such as MIDI data, which has been taken in from the outside or stored in advance in the ROM 12 or the storage device 15, and performs automatic reproduction according to the automatic performance data. The panel operator 23 accepts instructions regarding automatic performance. In the present embodiment, the automatic performance data is mainly assumed to be sound data of drum instrument sounds corresponding to the sounds A to F. Note that the musical sound can be generated by the manual performance operation of the pad group 21 and the hi-hat controller 22 even when the automatic performance is being executed.

前記ステップS301で、自動演奏実行中である場合は、再生対象の自動演奏データを読み出すと共に、読み出した発音データに基づく発音タイミングをチェックする(ステップS303)。そして、読み出した発音データの発音タイミングとなったら(ステップS304)、ステップS305に進む。   If the automatic performance is being executed in step S301, the automatic performance data to be reproduced is read and the sound generation timing based on the read sound data is checked (step S303). When the sounding timing of the read sounding data comes (step S304), the process proceeds to step S305.

一方、前記ステップS301で、自動演奏実行中でない場合は、キーオンがあったか、すなわち、パッド群21またはハイハットコントローラ22の演奏操作があったか否かを判別し(ステップS302)、ない場合は、本処理を終了する。キーオンがあった場合は、ステップS305に進む。自動演奏実行中において発音タイミングになること、及び、キーオンがあることが、発音指示を受け付けたことに該当する。   On the other hand, if the automatic performance is not being executed in step S301, it is determined whether there is a key-on, that is, whether the pad group 21 or the hi-hat controller 22 has been operated (step S302). finish. If there is a key-on, the process proceeds to step S305. The sound generation timing and the key-on during automatic performance execution correspond to the reception of the sound generation instruction.

ステップS305では、発音指示のチャンネルを把握する。すなわち、読み出した発音データ、または、演奏操作されたパッド群21乃至ハイハットコントローラ22に対応する発音チャンネルを把握する。次に、発音すべき音のベロシティ、定位パラメータを把握する(ステップS306)。ここで、ベロシティは、自動演奏においては発音データから把握され、キーオンの場合は、演奏操作の検出結果から把握される。定位パラメータは、図5のステップS205で決定されているものが把握される。なお、本処理の段階でステップS205が実行されていなかった場合は、定位パラメータは、初期設定の値とされる。   In step S305, the sound generation instruction channel is grasped. That is, the sound generation channel corresponding to the read sound generation data or the pad group 21 to the hi-hat controller 22 that has been operated is grasped. Next, the velocity and localization parameters of the sound to be generated are grasped (step S306). Here, the velocity is grasped from the sound production data in the automatic performance, and is grasped from the detection result of the performance operation in the case of the key-on. The localization parameters determined in step S205 in FIG. If step S205 is not executed at the stage of this process, the localization parameter is set to an initial setting value.

次に、上記把握したベロシティ及び定位パラメータの情報を音源回路19に送信し、音源回路19にて楽音信号を生成する(ステップS307)。この楽音信号は、各音A〜Fが、上記定位パラメータに従った音像定位で発音されるような楽音信号である。そして、生成した楽音信号を、効果回路20を介して楽音発生装置24に出力し(ステップS308)、本処理を終了する。これにより、選択されている楽音発生装置24から、その楽音発生装置24に応じた音像定位で音響が発生する。   Next, the information on the grasped velocity and localization parameters is transmitted to the tone generator circuit 19, and the tone generator circuit 19 generates a musical sound signal (step S307). This musical tone signal is a musical tone signal in which each sound A to F is generated with sound image localization according to the localization parameter. Then, the generated musical sound signal is output to the musical sound generating device 24 via the effect circuit 20 (step S308), and this process is terminated. As a result, sound is generated from the selected musical sound generator 24 with sound image localization corresponding to the musical sound generator 24.

このように、定位パラメータは、基本的に定位テーブルTBで決定されるが、図7、図8で説明するように、センター位置31C、分散幅BS、シフト率STを、事後的に個別に変更可能になっている。   As described above, the localization parameters are basically determined by the localization table TB. As described with reference to FIGS. 7 and 8, the center position 31C, the dispersion width BS, and the shift rate ST are changed individually afterwards. It is possible.

図7は、図4のステップS104で実行される音像定位変更処理のフローチャートである。まず、図4のステップS103における音像定位変更指定が、音A〜Fのいずれかのシフト率STを変更指定するものであるか否かを判別する(ステップS401)。そうである場合は、対象指定の受け付けをする(ステップS402)。すなわち、変更対象となる音の指定を受け付ける。次に、指定された音のシフト率STの現在値を表示装置16に表示し(ステップS403)、シフト率STの変更を受け付ける(ステップS404)。そして、当該指定された音のシフト率STを変更後の設定値に更新して(ステップS405)、本処理を終了する。   FIG. 7 is a flowchart of the sound image localization changing process executed in step S104 of FIG. First, it is determined whether or not the sound image localization change designation in step S103 in FIG. 4 is a designation to change any shift rate ST of the sounds A to F (step S401). If so, the target designation is accepted (step S402). That is, the designation of the sound to be changed is accepted. Next, the current value of the designated sound shift rate ST is displayed on the display device 16 (step S403), and a change in the shift rate ST is accepted (step S404). Then, the shift rate ST of the designated sound is updated to the set value after the change (step S405), and this process ends.

一方、音像定位変更指定が、個別指定でない場合は、分散幅BSの変更指定であるか否かを判別する(ステップS406)。そうである場合は、分散幅BSの現在値を表示装置16に表示し(ステップS407)、分散幅BSの変更を受け付け(ステップS408)、分散幅BSを変更後の設定値に更新して(ステップS409)、本処理を終了する。   On the other hand, if the sound image localization change designation is not individual designation, it is determined whether or not the dispersion width BS is designated (step S406). If so, the current value of the dispersion width BS is displayed on the display device 16 (step S407), the change of the dispersion width BS is accepted (step S408), and the dispersion width BS is updated to the changed set value ( Step S409), the process is terminated.

また、音像定位変更指定が、シフト率STまたは分散幅BSのいずれの変更指定でもない場合は、センター位置31Cの変更指定(シフト)であるか否かを判別する(ステップS410)。そうである場合は、センター位置31Cの現在値を表示装置16に表示し(ステップS411)、センター位置31Cの変更を受け付け(ステップS412)、センター位置31Cを変更後の設定値に更新して(ステップS413)、本処理を終了する。   If the sound image localization change designation is neither the shift rate ST nor the dispersion width BS, it is determined whether or not the center position 31C is designated for change (shift) (step S410). If so, the current value of the center position 31C is displayed on the display device 16 (step S411), the change of the center position 31C is accepted (step S412), and the center position 31C is updated to the set value after the change ( Step S413), the process is terminated.

音像定位変更指定が、シフト率ST、分散幅BSまたはセンター位置31Cのいずれの変更指定でもないその他の指定である場合は、当該その他の指定に従って設定を行い(ステップS414)、本処理を終了する。   If the sound image localization change designation is any other designation that is not any change designation of the shift rate ST, the dispersion width BS, or the center position 31C, the setting is performed according to the other designation (step S414), and this process is terminated. .

図8(a)〜(c)は、分散幅BSを変更した場合の各音A〜Fの定位を示す概念図である。図8(d)〜(f)は、センター位置31Cを変更した場合の各音A〜Fの定位を示す概念図である。特に、図8(c)、(f)は変形例である。   8A to 8C are conceptual diagrams showing the localization of the sounds A to F when the dispersion width BS is changed. 8D to 8F are conceptual diagrams showing the localization of the sounds A to F when the center position 31C is changed. In particular, FIGS. 8C and 8F are modified examples.

まず、図7のステップS406〜S409で変更される分散幅BSについては、分散幅BSを狭くすると(例えば、BS値=25程度)、図8(a)に示すように、中央付近に各音が集中することになる。分散幅BSをさらに狭くすると、限りなくモノラルに近づくことになる。逆に、分散幅BSを広げて、BS値を127に変更すると、図8(b)に示すように、音Fが、右限位置31Rに位置する。上述のように、本実施の形態では、BS値の設定可能値を最大で127としており、これ以上、定位を広げることができないようになっている。   First, for the dispersion width BS changed in steps S406 to S409 in FIG. 7, when the dispersion width BS is narrowed (for example, about BS value = 25), as shown in FIG. Will concentrate. If the dispersion width BS is further narrowed, it will be as close to monaural as possible. Conversely, when the dispersion width BS is widened and the BS value is changed to 127, the sound F is located at the right limit position 31R as shown in FIG. 8B. As described above, in the present embodiment, the maximum BS value that can be set is 127, and the localization cannot be further increased.

しかし、分散幅BSを、127を超えて設定可能に構成してもよい。例えば、分散幅BSが127を超えた場合は、図8(c)に示すように、右限位置31Rまたは左限位置31Lに到達した音についてはその位置に固定される(張り付く)ようにする。しかし、まだ右限位置31Rまたは左限位置31Lに到達しておらず移動余地がある音については、分散幅BSの増加に応じて左右方向外側に変位していくようにする。この変形例では、分散幅BSが127を超えた以降は、シフト率STは設定通りに維持されない。   However, the dispersion width BS may be configured to be set to exceed 127. For example, when the dispersion width BS exceeds 127, as shown in FIG. 8C, the sound that has reached the right limit position 31R or the left limit position 31L is fixed (sticked) to that position. . However, sounds that have not yet reached the right limit position 31R or the left limit position 31L and have room for movement are displaced outward in the left-right direction as the dispersion width BS increases. In this modification, after the dispersion width BS exceeds 127, the shift rate ST is not maintained as set.

なお、分散幅BSが127を超えた以降における各音の定位位置を、センター位置31Cの左側と右側とで分けて調節してもよい。例えば、右限位置31Rに張り付いた音が存在し、且つ、左限位置31Lに到達した音が未だ存在しない場合は、左側の音についてだけ、分散幅BSの増加に応じてさらに左方向に変位していくようにする。   Note that the localization position of each sound after the dispersion width BS exceeds 127 may be adjusted separately on the left side and the right side of the center position 31C. For example, when there is a sound stuck to the right limit position 31R and there is no sound that has reached the left limit position 31L, only the left sound is further leftward in accordance with the increase in the dispersion width BS. Try to be displaced.

一方、図7のステップS410〜S413で変更されるセンター位置31Cについては、例えば、値が「0」から「+20」に変更されると、図8(d)に示すように、音A〜F全体が、互いの相対的関係を保ったまま「+20」分だけ右方に変位する。センター位置31Cをさらに+方向に大きくすることができるが、本実施の形態では、図8(e)に示すように、音Fが、右限位置31Rに到達するような値にて、それ以上、センター位置31Cを+方向の大きな値に変更することができないようになっている。   On the other hand, for the center position 31C changed in steps S410 to S413 in FIG. 7, for example, when the value is changed from “0” to “+20”, as shown in FIG. The whole is displaced to the right by “+20” while maintaining the relative relationship with each other. Although the center position 31C can be further increased in the + direction, in the present embodiment, as shown in FIG. 8 (e), the sound F reaches a right limit position 31R and beyond. The center position 31C cannot be changed to a large value in the + direction.

しかし、センター位置31Cを、いずれかの音が右限位置31Rまたは左限位置31Lに到達した場合でも、さらに同じ方向に変化させるような値に設定可能に構成してもよい。例えば、図8(f)に示すように、センター位置31Cを変更することによって、右限位置31Rまたは左限位置31Lに到達した音についてはその位置に固定されるようにする。しかし、まだ右限位置31Rまたは左限位置31Lに到達しておらず移動余地がある音については、センター位置31Cの変化に応じて変位していくようにする。この変形例では、ある音が、右限位置31Rまたは左限位置31Lに到達した以降は、シフト率STは設定通りに維持されない。   However, the center position 31C may be configured to be set to a value that can be changed in the same direction even when any sound reaches the right limit position 31R or the left limit position 31L. For example, as shown in FIG. 8F, by changing the center position 31C, the sound that has reached the right limit position 31R or the left limit position 31L is fixed at that position. However, sounds that have not yet reached the right limit position 31R or the left limit position 31L and have room for movement are displaced according to the change in the center position 31C. In this modification, after a certain sound reaches the right limit position 31R or the left limit position 31L, the shift rate ST is not maintained as set.

シフト率STの個別変更(図7のステップS401〜S405)による音像定位については図示しないが、当然に、互いの音の相対的関係が変化することになる。また、シフト率STの個別変更の結果、いずれかの音が右限位置31Rまたは左限位置31Lをはみ出すような指示を受けた場合は、分散幅BSが自動的に縮小されるか、あるいは、センター位置31Cが、それを回避する方向に自動修正されるものとする。   Although the sound image localization by the individual change of the shift rate ST (steps S401 to S405 in FIG. 7) is not shown, naturally, the relative relationship between the sounds changes. Further, as a result of the individual change of the shift rate ST, when any sound is instructed to protrude from the right limit position 31R or the left limit position 31L, the dispersion width BS is automatically reduced, or It is assumed that the center position 31C is automatically corrected in a direction to avoid it.

本実施の形態によれば、楽音発生装置24の1つを選択すると、定位テーブルTBの分散幅BSに基づいて、その楽音発生装置24に応じて、複数系統の音の各々の音像定位が、相対的関係を維持しつつ設定される。これにより、選択した楽音発生装置に適した音像設定にて楽音再生を行うことができる。   According to the present embodiment, when one of the tone generators 24 is selected, the sound image localization of each of a plurality of sounds is determined according to the tone generator 24 based on the dispersion width BS of the localization table TB. It is set while maintaining the relative relationship. As a result, the musical sound can be reproduced with the sound image setting suitable for the selected musical sound generating device.

特に、間隔測定機能付外部スピーカ24−4が選択された場合においては、左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔に応じて音像定位が設定されるので、左右のスピーカの配置間隔に適した音像設定にて楽音再生を行うことができる。   In particular, when the external speaker 24-4 with the interval measurement function is selected, the sound image localization is set according to the arrangement interval between the left speaker 24-4L and the right speaker 24-4R. Musical sound reproduction can be performed with a sound image setting suitable for the interval.

なお、パッドA〜Fに対応する音A〜Fの音像定位における相対的関係を規定する情報として、音Cの定位位置を基準としたシフト率STを用いたが(図2、図3参照)、これに限られない。例えば、デフォルトの分散幅BSにおける、各音の絶対的な定位位置を個々に示すような値の集合の情報であってもよい。あるいは、構成を簡単にする観点では、各音A〜Fの並び順だけを規定するような情報であってもよい。   Note that the shift rate ST based on the localization position of the sound C is used as information defining the relative relationship in sound image localization of the sounds A to F corresponding to the pads A to F (see FIGS. 2 and 3). Not limited to this. For example, it may be information on a set of values individually indicating the absolute localization position of each sound in the default dispersion width BS. Alternatively, from the viewpoint of simplifying the configuration, it may be information that defines only the arrangement order of the sounds A to F.

また、複数系統の音の音像定位における左右方向の広がりである分散幅情報としては、本実施の形態では分散幅BSそのものとしたが、これに限られない。例えば、定位テーブルTBにおいて所定の楽音発生装置24(例えば、標準外部スピーカ24−3)について設定されている分散幅の値に対する比率で表してもよい。あるいは、何らかの数式や関数で表してもよい。また、分散幅情報を保持する場所は、ROM12に限られず、CPU11がアクセス可能な箇所であればよい。   In addition, although the distribution width information that is the spread in the left-right direction in sound image localization of a plurality of sound systems is the distribution width BS in the present embodiment, it is not limited thereto. For example, it may be expressed as a ratio to the value of the dispersion width set for a predetermined musical sound generator 24 (for example, the standard external speaker 24-3) in the localization table TB. Alternatively, it may be expressed by some mathematical formula or function. Further, the location where the distribution width information is held is not limited to the ROM 12 and may be any location accessible by the CPU 11.

また、定位テーブルTBにおいて、シフト率STについては、一部の楽音発生装置24(例えば、ヘッドホン24−1)だけは、本発明の対象から除外し、シフト率STを他の楽音発生装置24のものとは値を異ならせてもよい。   In the localization table TB, with respect to the shift rate ST, only a part of the tone generators 24 (for example, the headphones 24-1) are excluded from the subject of the present invention, and the shift rate ST of the other tone generators 24 is excluded. The value may be different from the one.

なお、定位が個別に設定される音A〜Fは、発音における系統が異なるように構成されればよく、チャンネル、音色、操作子、トラック等によって区別され、定位を個別に制御できる構成であればよい。   Note that the sounds A to F whose localization is set individually may be configured to have different sound generation systems, and may be distinguished by channels, timbres, controls, tracks, etc., and can be controlled individually. That's fine.

また、本実施の形態では、楽音信号出力装置として電子打楽器を例示し、演奏操作子であるパッド群21及びハイハットコントローラ22を含む構成であったが、これらを含めない、トリガーモジュールとしての装置構成としてもよい。その場合は、演奏操作子からの演奏操作の信号を入力し、楽音信号を生成して出力するように構成する。   Further, in the present embodiment, an electronic percussion instrument is exemplified as the musical tone signal output device and includes the pad group 21 and the hi-hat controller 22 that are performance operators, but the device configuration as a trigger module does not include these. It is good. In that case, a performance operation signal from the performance operator is input, and a musical sound signal is generated and output.

なお、音像定位としては、音量の制御だけでなく、遅延も制御するようにしてもよい。   Note that the sound image localization may be controlled not only by volume control but also by delay.

また、本実施の形態では、ドラム音を例にとって説明したが、これに限られない。例えば、複数の音色を発音できるような電子楽器において、各音色にチャンネルを対応させ、チャンネルごとに音像定位を個別に設定するようにすればよい。また、鍵盤楽器に適用した場合、同時に発音する音色が同じであるモードにおいても、音域を複数に分け、各音域ごとに異なるチャンネルを対応させ、チャンネルごとに音像定位を個別に設定するようにしてもよい。   In the present embodiment, the drum sound has been described as an example, but the present invention is not limited to this. For example, in an electronic musical instrument that can generate a plurality of timbres, a channel is associated with each timbre, and sound image localization may be set individually for each channel. Also, when applied to keyboard instruments, even in a mode where the timbres that sound at the same time are the same, the sound range is divided into multiple parts, each channel corresponds to a different channel, and the sound image localization is set individually for each channel. Also good.

なお、図5のステップS202において、楽音出力に用いる1つの楽音発生装置を、ユーザが入力操作により手動で設定することとしたが、自動的に設定されるように構成してもよい。その場合は、次のように構成する。楽音発生装置24の各々は、自己を識別させるための識別情報を保持する。本体スピーカ24−2を除く楽音発生装置24と本楽音信号出力装置とは、データ通信が可能なインターフェイス(例えば、各種インターフェイス17の1つ)で物理的及び電気的に接続、切断が可能なように構成する。そして、択一的に楽音発生装置24を接続すると、当該楽音発生装置24から識別情報が自動的に本楽音信号出力装置に送信される。本楽音信号出力装置では、受信して取得した識別情報から楽音発生装置24を把握し、把握したものを、選択された楽音発生装置24として扱う。   In step S202 of FIG. 5, one musical sound generating device used for musical sound output is manually set by the user through an input operation, but may be configured to be automatically set. In that case, the configuration is as follows. Each of the musical tone generators 24 holds identification information for identifying itself. The musical tone generator 24 and the musical tone signal output device, excluding the main body speaker 24-2, can be physically and electrically connected and disconnected by an interface capable of data communication (for example, one of the various interfaces 17). Configure. When the musical tone generator 24 is connected alternatively, the identification information is automatically transmitted from the musical tone generator 24 to the musical tone signal output device. In this musical tone signal output device, the musical tone generating device 24 is grasped from the received and acquired identification information, and the grasped one is handled as the selected musical tone generating device 24.

さらに、図5のステップS204において、間隔測定機能付外部スピーカ24−4の左スピーカ24−4Lと右スピーカ24−4Rとの配置間隔の値を、ユーザが入力操作により手動で設定することとしたが、これも自動的に入力されるように構成してもよい。その場合は、次のように構成する。間隔測定機能付外部スピーカ24−4と本楽音信号出力装置とを、データ通信が可能なインターフェイス(例えば、各種インターフェイス17の1つ)で物理的及び電気的に接続、切断が可能なように構成する。そして間隔測定機能付外部スピーカ24−4を接続すると、測距部25による測距が自動的に実行され、その測定結果が、本楽音信号出力装置に送信される。   Further, in step S204 of FIG. 5, the user manually sets the value of the arrangement interval between the left speaker 24-4L and the right speaker 24-4R of the external speaker 24-4 with the interval measurement function by an input operation. However, this may be automatically input. In that case, the configuration is as follows. The external speaker 24-4 with interval measurement function and the musical tone signal output device are configured to be physically and electrically connected and disconnected by an interface capable of data communication (for example, one of the various interfaces 17). To do. When the external speaker 24-4 with interval measurement function is connected, distance measurement by the distance measurement unit 25 is automatically executed, and the measurement result is transmitted to the musical tone signal output device.

なお、上記配置間隔の測定機能は、本楽音信号出力装置に設けてもよい。例えば、左スピーカ24−4Lと右スピーカ24−4Rとについて、本楽音信号出力装置との距離と方向を測定できる機構を設ければ、両者の配置間隔を知ることができる。   The arrangement interval measuring function may be provided in the musical tone signal output apparatus. For example, if the left speaker 24-4L and the right speaker 24-4R are provided with a mechanism capable of measuring the distance and direction from the musical tone signal output device, the arrangement interval between them can be known.

本発明の一実施の形態に係る楽音信号出力装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the musical tone signal output device which concerns on one embodiment of this invention. 聴衆側からみた各パッドに対応する音の定位を示す概念図((a)〜(c))である。It is a conceptual diagram ((a)-(c)) which shows the localization of the sound corresponding to each pad seen from the audience side. 定位テーブルの概念図である。It is a conceptual diagram of a localization table. 本実施の形態におけるメイン処理のフローチャートを示す図である。It is a figure which shows the flowchart of the main process in this Embodiment. 図4のステップS106で実行される楽音発生部設定処理のフローチャートである。It is a flowchart of the musical sound generation part setting process performed by step S106 of FIG. 図4のステップS109で実行される発音処理のフローチャートである。It is a flowchart of the sound generation process performed by step S109 of FIG. 図4のステップS104で実行される音像定位変更処理のフローチャートである。It is a flowchart of the sound image localization change process performed by step S104 of FIG. 分散幅を変更した場合の各音の定位を示す概念図((a)〜(c))、センター位置を変更した場合の各音の定位を示す概念図((d)〜(f))である。Schematic diagrams ((a) to (c)) showing the localization of each sound when the dispersion width is changed, and conceptual diagrams ((d) to (f)) showing the localization of each sound when the center position is changed. is there.

符号の説明Explanation of symbols

11 CPU(装置選択手段、定位設定手段、楽音信号生成手段、楽音信号出力手段)、 12 ROM(情報保持手段)、 19 音源回路(楽音信号生成手段)、 20 効果回路(楽音信号出力手段)、 21 パッド群(発音指示受付手段)、 22 ハイハットコントローラ(発音指示受付手段)、 23 パネル操作子(発音指示受付手段、装置選択手段)、 24 楽音発生装置、 24−4 間隔測定機能付外部スピーカ(外付け楽音発生装置)、 24−4L 左スピーカ、 24−4R 右スピーカ、 TB 定位テーブル、 31C センター位置、 ST シフト率(相対的関係)、 BS 分散幅(分散幅情報)   11 CPU (device selection means, localization setting means, music signal generation means, music signal output means), 12 ROM (information holding means), 19 sound source circuit (music signal generation means), 20 effect circuit (music signal output means), 21 pad group (sound generation instruction receiving means), 22 hi-hat controller (sound generation instruction receiving means), 23 panel operator (sound generation instruction receiving means, device selection means), 24 musical sound generator, 24-4 external speaker with interval measurement function ( External music generator), 24-4L left speaker, 24-4R right speaker, TB localization table, 31C center position, ST shift rate (relative relationship), BS dispersion width (dispersion width information)

Claims (2)

音像定位における相対的関係が定められた複数系統の音を発音させるための楽音信号を、ステレオ再生が可能な異なる複数の楽音発生装置のうち選択した楽音発生装置に出力し、前記出力した楽音信号を前記選択した楽音発生装置で音響にすることが可能な楽音信号出力装置であって、
自動演奏またはマニュアル演奏による発音の指示を受け付ける発音指示受付手段と、
前記複数の楽音発生装置のうち1つを選択する装置選択手段と、
前記複数系統の音の音像定位における左右方向の広がりである分散幅及び前記分散幅の左右方向の広がりの中心であるセンター位置を、複数の楽音発生装置のそれぞれに定めるための分散幅情報及びセンター位置情報取得する情報取得手段と、
前記装置選択手段により選択された楽音発生装置に対応する前記分散幅情報及び前記センター位置情報に基づいて、前記複数系統の音の各々の音像定位を、前記定められた音像定位における相対的関係を維持しつつ設定する定位設定手段と、
前記発音指示受付手段により受け付けられた発音の指示に従って、各系統の音が、前記定位設定手段により設定された音像定位で発音されるような楽音信号を生成する楽音信号生成手段と、
前記楽音信号生成手段により生成された楽音信号を前記装置選択手段により選択された楽音発生装置に対して出力する楽音信号出力手段とを有することを特徴とする楽音信号出力装置。
A musical sound signal for generating a plurality of systems of sound having a relative relationship in sound image localization is output to a musical sound generator selected from a plurality of different musical sound generators capable of stereo reproduction, and the outputted musical sound signal A musical sound signal output device capable of making a sound with the selected musical sound generator,
Pronunciation instruction receiving means for receiving instructions for pronunciation by automatic performance or manual performance;
Device selecting means for selecting one of the plurality of musical sound generating devices;
Dispersion width information and center for determining each of a plurality of musical tone generators with a dispersion width that is a lateral spread in the sound image localization of the sounds of the plurality of systems and a center position that is the center of the lateral spread of the dispersion width Information acquisition means for acquiring position information ;
On the basis of the dispersion width information and the center position information corresponding to the tone generator device selected by the device selecting unit, the sound image localization of each of the previous SL plurality of systems sound, the relative relationship in the defined sound image localization Localization setting means for setting while maintaining
A musical sound signal generating means for generating a musical sound signal such that sounds of each system are sounded with sound image localization set by the localization setting means in accordance with the pronunciation instruction received by the pronunciation instruction receiving means;
A tone signal output device comprising: a tone signal output means for outputting a tone signal generated by the tone signal generation means to a tone generator selected by the device selection means.
前記定位設定手段は、前記選択された楽音発生装置に対応する前記分散幅情報及び前記センター位置情報に基づいて前記複数系統の音の各々の音像定位を設定する際、定位設定の限界となる定位限界位置を超える音がある場合、その音については、前記定められた音像定位における相対的関係にかかわらず、音像定位を前記定位限界位置に設定することを特徴とする請求項1記載の楽音信号出力装置。 The localization setting means, when setting the sound image localization of each of the sounds of the plurality of systems based on the dispersion width information and the center position information corresponding to the selected musical sound generator, the localization that is the limit of the localization setting 2. The musical sound signal according to claim 1 , wherein when there is a sound exceeding a limit position, the sound image localization is set to the localization limit position for the sound regardless of a relative relationship in the determined sound image localization. Output device.
JP2008042597A 2008-02-25 2008-02-25 Music signal output device Expired - Fee Related JP5169300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008042597A JP5169300B2 (en) 2008-02-25 2008-02-25 Music signal output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008042597A JP5169300B2 (en) 2008-02-25 2008-02-25 Music signal output device

Publications (2)

Publication Number Publication Date
JP2009198947A JP2009198947A (en) 2009-09-03
JP5169300B2 true JP5169300B2 (en) 2013-03-27

Family

ID=41142464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008042597A Expired - Fee Related JP5169300B2 (en) 2008-02-25 2008-02-25 Music signal output device

Country Status (1)

Country Link
JP (1) JP5169300B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5609069B2 (en) * 2009-11-05 2014-10-22 ヤマハ株式会社 Music signal control device
JP5651338B2 (en) * 2010-01-15 2015-01-14 ローランド株式会社 Music signal processor
JP5773960B2 (en) * 2012-08-30 2015-09-02 日本電信電話株式会社 Sound reproduction apparatus, method and program
JP6254864B2 (en) * 2014-02-05 2017-12-27 日本放送協会 Multiple sound source placement apparatus and multiple sound source placement method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3136701B2 (en) * 1991-10-02 2001-02-19 ヤマハ株式会社 Music signal generator
JP2983122B2 (en) * 1993-03-31 1999-11-29 株式会社河合楽器製作所 Electronic musical instrument
JP3389655B2 (en) * 1993-09-29 2003-03-24 カシオ計算機株式会社 Sound image localization control device
JP2002058100A (en) * 2000-08-08 2002-02-22 Yamaha Corp Fixed position controller of acoustic image and medium recorded with fixed position control program of acoustic image
JP2005010362A (en) * 2003-06-18 2005-01-13 Kawai Musical Instr Mfg Co Ltd Musical sound control device of electronic musical sound generating device
JP4940671B2 (en) * 2006-01-26 2012-05-30 ソニー株式会社 Audio signal processing apparatus, audio signal processing method, and audio signal processing program

Also Published As

Publication number Publication date
JP2009198947A (en) 2009-09-03

Similar Documents

Publication Publication Date Title
JP3948242B2 (en) Music generation control system
EP2946479B1 (en) Synthesizer with bi-directional transmission
EP3373288B1 (en) Electronic musical instrument, sound production control method, and storage medium
WO2007032173A1 (en) Information processor and controller device
JP2011002741A (en) Electronic percussion instrument
JP5169300B2 (en) Music signal output device
JP6822578B2 (en) Electronic musical instrument
JP4171012B2 (en) Information processing apparatus and controller device
JPWO2007015321A1 (en) Music output switching device, musical output switching method, computer program for switching musical output
JP4096801B2 (en) Simple stereo sound realization method, stereo sound generation system and musical sound generation control system
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP4426159B2 (en) Mixing equipment
JP6686756B2 (en) Electronic musical instrument
JP5609069B2 (en) Music signal control device
US20220157286A1 (en) Electronic device, electronic drum device and sound reproduction method
US20060130641A1 (en) Apparatus and method for providing a twin piano function
JP7434083B2 (en) karaoke equipment
JP2983122B2 (en) Electronic musical instrument
CN116741124A (en) Sound processing system and sound processing method thereof
JP2006163119A5 (en)
JP2004287020A (en) Stage effect sound generation device and music reproducing device
JP4726089B2 (en) Musical sound control device for electronic musical sound generator
JP2005010362A (en) Musical sound control device of electronic musical sound generating device
JP3682691B2 (en) Electronic music apparatus having musical tone information assigning operator
JP5107066B2 (en) Music output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121217

R150 Certificate of patent or registration of utility model

Ref document number: 5169300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees