WO2017061410A1 - プログラムを記録した記録媒体および表示制御方法 - Google Patents

プログラムを記録した記録媒体および表示制御方法 Download PDF

Info

Publication number
WO2017061410A1
WO2017061410A1 PCT/JP2016/079427 JP2016079427W WO2017061410A1 WO 2017061410 A1 WO2017061410 A1 WO 2017061410A1 JP 2016079427 W JP2016079427 W JP 2016079427W WO 2017061410 A1 WO2017061410 A1 WO 2017061410A1
Authority
WO
WIPO (PCT)
Prior art keywords
icon
instrument
musical instrument
display
displayed
Prior art date
Application number
PCT/JP2016/079427
Other languages
English (en)
French (fr)
Inventor
鈴木 真人
裕 宮崎
野口 真太郎
瑞之 白井
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015197446A external-priority patent/JP2017073590A/ja
Priority claimed from JP2015198503A external-priority patent/JP2017073631A/ja
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2017061410A1 publication Critical patent/WO2017061410A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to a technique capable of easily setting a sound signal processing device.
  • a mixer used in a stage or the like that adjusts and mixes the level and frequency characteristics of a sound signal such as a singing sound input to a microphone placed on a stage or the like and the performance sound of an instrument and sends it to a power amplifier.
  • a mixer is a kind of sound signal processing device and has a plurality of channels for handling sound signals of instrument sounds and singing sounds, and in each channel, the volume and tone color of the sound signal are adjusted to the most suitable state in performance. .
  • each channel in the conventional mixer the user confirms which input channel the input port is connected to, and what sound signal is input from each input channel and played. Understand the type of instrument to be used, and set the parameters for the volume and tone of each channel.
  • the channel setting will be described assuming that each channel is equipped with an attenuator, equalizer, dynamics, and fader (see Non-Patent Document 1).
  • the input gain of each channel of the mixer is adjusted with an attenuator.
  • the fader uses the fader to adjust the volume so that you can actually play the song and hear a good balance.
  • the vocal sound is easily heard when mixed, and the volume of the loud instrument is adjusted to balance the vocal.
  • the equalizer to amplify the sound range that each instrument is good at and attenuate the unnecessary sound range, it is possible to separate the sound ranges between the instruments so that the balance is improved.
  • the dynamics are adjusted so that the sound pressure of the sound signal increases and a powerful force is produced.
  • the volume and position of the monitor speakers are adjusted so that each performer can hear the surrounding sounds and his performance well.
  • JP-A-2-68597 Japanese Patent No. 3170596
  • Patent Document 1 discloses a musical sound parameter that reproduces a sound field corresponding to a desired instrument position by a simple operation as a parameter used to reproduce a sound field corresponding to the instrument position in the performance area. A control device is disclosed.
  • a musical instrument position is designated by touching a panel corresponding to a playing field, a musical instrument icon is displayed at the designated musical instrument position, and the designated musical instrument position information is converted into musical tone parameter information.
  • Patent Document 1 it is possible to apply a reverb effect corresponding to the musical instrument position in the front-rear direction of the performance hall.
  • Patent Document 2 discloses that a plurality of instrument player icons each representing a plurality of performance parts are displayed on the stage, and the instrument player icons are used as symbols of the instrument and the player who plays the instrument. ing.
  • none of the documents describes the association between musical instruments and performers and how much volume is applied to the speakers for each musical instrument.
  • the acoustic engineer makes adjustments for each player, so in conventional mixers where the association between the instrument and the player is not clear, it takes time to grasp the association. And the work becomes inefficient. For this reason, it is difficult for users with low mixer setting skills to perform mixer settings, and it is difficult for users with high mixer setting skills to perform mixer settings efficiently.
  • an object of the present invention is to provide a program that can clarify the association between musical instruments and performers.
  • a computer-readable recording medium on which a program according to the present invention is recorded is a player icon display procedure for causing a computer to display a player icon corresponding to a player performing a musical instrument on a display.
  • a musical instrument icon display procedure for displaying a musical instrument icon corresponding to the musical instrument type of the musical instrument corresponding to the performance sound represented by the sound signal input to the input channel for signal processing on the display unit corresponding to the input channel,
  • the main feature is to record a program for executing a player icon and an association procedure for visually associating a musical instrument icon.
  • a computer-readable recording medium in which a program according to the present invention is recorded includes a stage display procedure for causing a computer to acquire stage information and display the stage on a display, a player's position information on the stage, and a speaker's position information.
  • the instrument icon of the instrument type assigned to each is displayed, and the icon display procedure for displaying the speaker icon at the position corresponding to the position information of each speaker acquired by the position information acquisition procedure and the icon display procedure are displayed. Selected based on the selection operation of the player icon or instrument icon and speaker icon.
  • the present invention can be implemented in any form such as a system, method, apparatus, program, and the like.
  • FIG. 1 shows a configuration of a mixer 1 to which a tablet terminal 2 on which a sound signal processing apparatus program (hereinafter referred to as “setting program”) of the present embodiment is executed is connected.
  • the mixer 1 shown in FIG. 1 includes a CPU (Central Processing Unit) 10, a flash memory 11, a RAM (Random Access Memory) 12, other I / O 13, a waveform I / O 14, a signal processing unit 15 (DSP: Digital Signal Processor), A display 16, an electric fader 17, and an operator 18 are provided, and these are connected by a communication bus 19.
  • CPU Central Processing Unit
  • flash memory 11 a flash memory 11
  • RAM Random Access Memory
  • DSP Digital Signal Processor
  • the CPU 10 is a control means for comprehensively controlling the operation of the mixer 1, and by executing a control program stored in the flash memory 11, input / output of sound signals in the waveform I / O 14 and display on the display 16. Processing such as control, parameter editing in accordance with the operation of the electric fader 17 and the operator 18 and control of signal processing in the signal processing unit 15 is performed.
  • the flash memory 11 is a rewritable nonvolatile storage means for storing a control program executed by the CPU 10 and presets.
  • the RAM 12 is volatile storage means for the CPU 10 to write and read various data, and is also used as a work memory for the CPU 10 and a current memory for storing current data for the mixer 1.
  • I / O 13 is an interface for communicating by connecting various external devices, and the tablet terminal 2 is connected in the figure.
  • the setting program according to the present embodiment on the tablet terminal 2, the user can remotely set the current data of the mixer 1 using the tablet terminal 2.
  • any standard such as Ethernet (registered trademark) or USB (Universal Serial Bus) can be adopted as a standard used for communication in the I / O 13, and wired wireless is not an issue.
  • a plurality of external devices can be simultaneously connected to the other I / O 13, and an external memory or a personal computer (PC) can also be connected.
  • a setting program similar to the setting program executed by the tablet terminal 2 may be executed on the PC to perform remote setting of the mixer 1.
  • the display 16 is a display means for displaying various information according to the control of the CPU 10, and can be constituted by, for example, a liquid crystal panel (LCD) or a light emitting diode (LED).
  • the electric fader 17 is an operator operated by the user to adjust parameter values such as the volume of the sound signal input to the mixer 1.
  • the operation element 18 is an operation element operated by the user in order to adjust various parameter values of modules such as an attenuator, equalizer, dynamics, and fader, and is, for example, a key, a button, or a rotary encoder.
  • the waveform I / O 14 is an interface for receiving a sound signal to be processed by the signal processing unit 15 from outside the mixer 1 and outputting the processed sound signal to the outside.
  • the waveform I / O 14 includes a plurality of input ports 20 and a plurality of output ports 24. Each input port 20 receives one sound signal from the outside and supplies it to the signal processing unit 15. Each output port 24 outputs one sound signal from the signal processing unit 15.
  • the signal processing unit 15 is configured as a DSP group including a plurality of DSPs, performs signal processing such as mixing or equalizing on the sound signal supplied from the waveform I / O 14, and converts the sound signal after the signal processing into the waveform I again.
  • a function for outputting to / O14 is provided.
  • the signal processing is controlled based on the current values (current data) of various parameters.
  • the current data is stored in the current memory area of the RAM 12, and the values of various parameters included in the current data are changed by the CPU 10 in accordance with the operation of the operator 18 by the user.
  • the setting of the current data and the like of the mixer 1 can be performed by the user using the externally connected tablet terminal 2, so the mixer 1 does not include one or both of the electric fader 17 and the operation element 18. May be.
  • FIG. 2 shows a block diagram of the mixing processing realized by the waveform I / O 14 and the signal processing unit 15.
  • the channel is described as ch.
  • the sound signal from the input port 20 is supplied to the input ch 21-n.
  • signal processing for adjusting the level and frequency characteristics is performed on the supplied sound signal, and the sound signal after the signal processing is, for example, one of six buses 22 or Send to multiple buses.
  • the user can individually change the level of the sound signal to be transmitted for each bus.
  • Each bus 22 mixes the sound signal input from each of the plurality of input channels 21-n and sends the sound signal resulting from the mixing to the output channel 23 corresponding to the bus 22.
  • the sound signal supplied from the bus 22 is subjected to signal processing by a series of processing blocks such as a head amplifier, an equalizer, and a compressor, and the sound signal after the signal processing is output to the output port 24. To send.
  • FIG. 3 shows a detailed configuration of the input ch 21-n.
  • the sound signal from the input port 20 is input to the input channel 21-n, and the path for transmitting the sound signal to the bus 22 includes an attenuator 30, an equalizer 31, dynamics 32, faders 33a to 33f, and The modules for performing different signal processing of the ch switches 34a to 34f are cascaded.
  • the attenuator 30 is a level controller that performs processing for adjusting the gain of the input signal.
  • the equalizer 31 is an equalizer that performs processing for adjusting the frequency characteristics of the input signal, and includes, for example, four bands of HIGH, HIGHHIMID, LOW MID, and LOW.
  • the dynamics 32 is a signal processing module that compresses the dynamic range by reducing the output level (gain) at a constant rate when the input level of the sound signal exceeds a threshold value.
  • Each input channel 21-n includes a plurality of faders 33a to 33f and a plurality of channel switches 34a to 34f.
  • the plurality of faders 33a to 33f are provided in one-to-one correspondence with the plurality of buses 22, and adjust the level of the sound signal sent to the bus 22 for each bus.
  • the plurality of channel switches 34a to 34f are provided to correspond to the plurality of buses 22 on a one-to-one basis, and turn on / off the input channel 21-n for each bus.
  • Attenuator 30, equalizer 31, and dynamics 32 are provided for each input channel 21-n. That is, the user adjusts the attenuator 30, the equalizer 31, and the dynamics 32 for each input ch 21 -n and does not adjust for each bus 22.
  • faders 33a to 33f and ch switches 34a to 34f are adjusted for each bus 22.
  • FIG. 4 shows the hardware configuration of the tablet terminal 2.
  • the tablet terminal 2 shown in FIG. 4 includes a CPU 40, a flash memory 41, a RAM 42, an external I / O 43, a display 44, and an operator 45, which are connected by a communication bus 46.
  • the CPU 40 is a control unit that performs overall control of the operation of the tablet terminal 2, and by executing an application program such as the setting program according to the present embodiment stored in the flash memory 41 on a predetermined operation system, Processing corresponding to the application program (performer icon display procedure, instrument icon display procedure, association procedure, stage display procedure, position information acquisition procedure, icon display procedure and signal processing procedure) such as remote setting of the mixer 1 is performed.
  • the flash memory 41 is a rewritable nonvolatile storage unit that stores various programs executed by the CPU 40 and data such as presets.
  • the RAM 42 is volatile storage means for the CPU 40 to write and read various data, and is also used as a work memory for the CPU 40.
  • the external I / O 43 is an interface for communicating with various external devices. Remote setting of the mixer 1 using the tablet terminal 2 is performed via the external I / O 43.
  • any standard such as Ethernet (registered trademark) or USB can be adopted, and wired wireless is not an issue.
  • the display 44 is a display unit that displays various information under the control of the CPU 40.
  • the display 44 is composed of an LCD display with a touch panel stacked thereon, and displays a GUI (Graphical User Interface) screen for accepting a user operation. For example, a casting mode screen 3 and a stage mode screen 4 described later are displayed.
  • the operation element 45 is for accepting an operation on the tablet terminal 2 and can be constituted by various keys or buttons.
  • the CPU 40 causes the display 44 of the tablet terminal 2 to display the casting mode screen 3 shown in FIG.
  • the default screen when starting the setting program may be the screen 3 in the casting mode.
  • a vocal arranged on the stage a cable from a microphone for musical instruments, or a cable from an electronic musical instrument is connected to the input port 20 and the main arranged on the stage.
  • a cable from the speaker and the monitor speaker is connected to the output port 24 of the mixer 1 in advance.
  • vocals are also treated as musical instruments unless otherwise specified. As shown in FIG.
  • a band name display section 3a, a band selection section 3b, and a mode selection section 3c are provided at the top of the casting mode screen 3.
  • a window of a band selection screen (not shown) is opened.
  • a band that uses the stage provided with the mixer 1 is selected.
  • FIG. 5 shows a case where the band with the band name “Band A” is selected, and “Band A” is displayed on the band name display portion 3a.
  • the mode selection unit 3c either the casting mode or the stage mode can be selected, and the letter “Casting” is displayed in white and the casting mode is selected.
  • player icons (P icons) 3f representing members who are players who make up the selected band are displayed for the number of members.
  • the P icon 3f can be a card (P card) on which a player's name (stage name) and a face photograph or face illustration are displayed.
  • P icons 3f corresponding to each of the four band members “member A”, “member C”, “member F”, and “member G” are displayed.
  • the icon of the member addition unit 3g displayed as “new member” in the lower right of the screen 3 is clicked, a member is added and a P icon 3f representing the added member is additionally displayed on the screen 3.
  • the casting mode it is possible to perform processing for associating each member of the band with the instrument type of the musical instrument played by each member.
  • the instrument type is, for example, the name of the sound source (specifically, the instrument name or performance part name).
  • the names of musical instruments such as guitars and bass drums are exemplified as the types of musical instruments.
  • the casting mode process will be described with reference to the flowchart of the casting mode process shown in FIGS.
  • the user Prior to starting the casting mode process, the user connects the vocal or musical instrument microphone or electronic musical instrument cable placed on the stage to the input port 20 of the mixer 1 and also placed on the stage.
  • the cables from the main speaker and the monitor speaker thus connected are connected to the output port 24 of the mixer 1.
  • the tablet terminal 2 is connected to the other I / O 13 of the mixer 1.
  • the casting mode process starts.
  • the casting mode process may be started by default when the setting program is started.
  • the CPU 40 of the tablet terminal 2 executes the casting mode process.
  • the casting mode process (part 1) shown in FIG. 7 according to the first embodiment will be described.
  • the CPU 40 reads the member data of the band name “Band A” displayed on the band name display unit 3a in Step S10, and performs the player information included in the member data. get.
  • the band “Band A” is selected, and member data of members of the selectable band is stored in advance in the flash memory 41 or an external memory connected externally.
  • the member data includes a band name, the number of members constituting the band, and player information of each member (performer).
  • the performer information includes the ID (name (or name) of each member) of each member, instrument information indicating the type of instrument that the member can play, and a face photograph or illustration displayed on the P icon 3f representing the member.
  • the information consisting of is registered.
  • the CPU 40 Based on the player information acquired in step S10 in step S11, the CPU 40 causes the display unit 44 to display a P icon 3f that is a player icon on the screen 3 in the casting mode (an example of a player icon display procedure). It is acquired from the member data that the band of “Band A” is composed of four members “Member A”, “Member C”, “Member F”, and “Member G”. A P icon 3f is displayed on the screen 3 in the casting mode. When the P icon 3f representing a member cannot be displayed on the screen 3, it is displayed by scrolling or layer switching.
  • step S12 the CPU 40 detects that a sound signal has been supplied to the specific input channel 21-n. When all members play their own musical instrument, it is detected that a sound signal is supplied to each of the input channels 21-n corresponding to the musical instrument.
  • step S13 the CPU 40 displays on the screen 3 a musical instrument display area 3d corresponding to the input ch 21-n in which the sound signal is detected in step S12. In FIG. 5, the instrument display areas 3d of the inputs ch 21-1 to ch 21-6 in which sound signals are detected are displayed.
  • a portable instrument playback device is connected to an input port 20 of the mixer 1 and can supply a sound signal to an input channel 21-n corresponding to the input port 20.
  • the CPU 40 analyzes the waveform of the sound signal supplied to each of the input channels 21-1 to 21-6 in the input channels 21-1 to 21-6 where the sound signal is detected, and determines the feature amount of each sound signal. calculate.
  • the CPU 40 uses an index (hereinafter referred to as “possibility coefficient”) indicating the similarity between each of the reference feature quantities prepared in advance for different instrument types and the feature quantity of the sound signal. Calculate for each instrument type.
  • This possibility coefficient can be calculated by the CPU 40 or the DSP of the signal processing unit 15 of the mixer 1.
  • the tablet terminal 2 may be connected to a network via the external I / O 43, and a server on the network may calculate the possibility coefficient.
  • step S16 the CPU 40 determines whether or not a musical instrument type candidate (hereinafter referred to as “type candidate”) has been estimated for the sound signal input to the input ch 21-n. Specifically, the CPU 40 uses, as a candidate for the type of sound signal input to the input ch 21-n, a musical instrument type having a possibility coefficient exceeding a predetermined threshold among the possibility coefficients calculated for each instrument type in step S15. Infer. When the type candidate is estimated (Yes in step S16), the CPU 40 represents the type candidate estimated for the sound signal input to the input ch 21-n in the instrument display area 3d corresponding to the input ch 21-n.
  • type candidate a musical instrument type candidate
  • the musical instrument icon (I icon) 3e is displayed on the display 44 in a manner corresponding to the calculated possibility coefficient (an example of a musical instrument icon display procedure). For example, in the input channel 21-1 shown in the figure, three types of candidates “E ⁇ guitar (electric guitar)”, “A guitar (acoustic guitar)” and “E bass (electric bass guitar)” are estimated and possible in that order. When the coefficient is large, the I icon 3e of “E guitar” having the largest possibility coefficient is the forefront in the instrument display area 3d corresponding to the input channel 21-1, and “E bass” having the smallest possibility coefficient is the last. It is displayed so that it becomes a surface.
  • the I icon 3e can be a card (I card) of an illustration representing the musical instrument.
  • I icons 3e of “M vocal (male vocal)” and “F vocal (female vocal)” of the estimated type candidates are in that order. Is displayed.
  • the estimated type candidates “piano” and “organ” and the respective I icons 3e are displayed in that order.
  • an I icon 3e of the type candidate “Hi-Hat” estimated from the sound signal of the input ch 21-4 is displayed, and the musical instrument corresponding to the input ch 21-5
  • an I icon 3e of the type candidate “Snare” estimated from the sound signal of the input ch 21-5 is displayed, and in the instrument display area 3d corresponding to the input ch 21-6, the input ch 21 ⁇ is displayed.
  • a type candidate “Kick” I icon 3e estimated from the sound signal 6 is displayed. Since the type candidates estimated in the input channels 21-4 to 21-6 generally constitute a drum kit, the CPU 40 estimates that these are one drum kit and displays them as a drum kit.
  • a musical instrument icon of the drum kit 3h representing the drum kit is displayed, and three musical instrument display areas 3d of the input ch 21-4, the input ch 21-5, and the input ch 21-6 are arranged around the drum kit 3h. Connect with an arc indicating that
  • step S16 If the type candidate is not estimated in step S16, that is, if there is no musical instrument type having a possibility coefficient exceeding a predetermined threshold (No in step S16), the CPU 40 displays the musical instrument display corresponding to the input ch 21-n in step S18. An icon indicating that the instrument type is unknown (for example, an icon of “?”) Is displayed on the display 44 in the area 3d.
  • step S19 the CPU 40 controls the display 44 to adjust the positions of the P icon 3f and the instrument display area 3d according to the player information acquired in step S10 and the estimated type candidate. 3 is displayed.
  • the CPU 40 controls the display 44 to perform a P icon corresponding to the player information.
  • the musical instrument display area 3d in which the I icon 3e of the estimated type candidate is displayed is displayed close to it.
  • the display position of the P icon 3f of member A The instrument display area 3d in which the “E guitar” I icon 3e is displayed is displayed at an intermediate point between the display position of the P icon 3f of the member B, or the display position of the P icon 3f of the member A and the member B It is also possible to display the musical instrument display area 3d in which the I icon 3e of “E guitar” is displayed between the display positions of the P icon 3f.
  • step S20 the CPU 40 determines whether or not the user has performed an operation of selecting one of the plurality of I icons 3e displayed in the instrument display area 3d and one of the plurality of P icons 3f. Judging. For example, by dragging one of the I icons 3e and dropping it on one of the P icons 3f [0], the CPU 40 determines whether or not there is an operation (operation indicated by an arrow in the figure) for selecting the I icon 3e and the P icon 3f. Judge.
  • step S20 if the user has not performed an operation of selecting any one of the plurality of I icons 3e and any one of the plurality of P icons 3f (No in step S20), the process returns to step S12, and the next The processing from step S12 to step S20 is performed again on the input ch 21-n.
  • the waveform analysis of the sound source of the sound signal supplied to each input ch 21-n is performed, and the possibility coefficient is calculated for all input ch 21 in order to determine the instrument type.
  • an I icon 3e corresponding to the determined instrument is displayed in the instrument display area 3d corresponding to the corresponding input ch 21-n.
  • the CPU 40 is selected in step S21.
  • the type candidate corresponding to the I icon 3e is assigned to the member corresponding to the selected P icon 3f as the musical instrument type played by the member.
  • the instrument type assigned to the member is added to the instrument information of the player information of the member.
  • the CPU 40 remotely controls the mixer 1 and sets the channel setting data specific to the instrument type associated with the input channel 21-n to the input channel 21-n.
  • the channel setting data set by the CPU 40 to the input channel 21-n is the channel setting data when the channel setting data of the member instrument type is already present, and is the initial data of the channel setting data otherwise. Details thereof will be described later.
  • the channel setting data for each input channel 21-n includes a parameter set of each module such as the equalizer 31 and the dynamics 32 of the input channel 21-n.
  • step S22 the CPU 40 controls the display 44 to visually associate the selected I icon 3e and P icon 3f (an example of an association procedure).
  • “Visual association” is a process in which the CPU 40 controls the display mode of the I icon 3e and the P icon 3f so that the user can visually grasp the correspondence between the I icon 3e and the P icon 3f. means.
  • a process of expressing the correspondence between the I icon 3e and the P icon 3f by approaching or closely contacting each other is a typical example of “visual association”.
  • the selected I icon 3e is displayed in close contact with the P icon 3f. That is, it is displayed that the musical instrument type of the performance sound represented by the sound signal input to the input channel 21-n is assigned to the member who plays the musical instrument represented by the musical instrument type.
  • step S23 determines in step S23 whether or not the casting mode has been completed.
  • another operation is performed by the user to select the I icon 3e and the P icon 3f again, such as when another one of the I icons 3e is selected and dropped on one of the P icons 3f (step S23).
  • the process returns to step S21 and the processes of steps S21 and S22 described above are repeated.
  • the musical instrument type of the musical instrument to be played is assigned to all the members of the band, and the sound signal of the musical performance sound represented by the musical instrument type is supplied.
  • the ch setting data for that instrument type is set in ch21-n. Further, when the “Stage” button is clicked in the mode selection unit 3c or the setting program is terminated (Yes in step S23), the casting mode process (part 1) is terminated.
  • the operation of selecting the I icon 3e and the P icon 3f can be performed a plurality of times by the user.
  • the user performs an operation of selecting the I icon 3e and the P icon 3f not only by listening to the sound signal of the input ch 21-n, but also by actually watching the band members on the stage and the performance status of the musical instrument. Good. For example, when the screen 3 is displayed on the display 44, if the performer “member A” is actually playing a musical instrument corresponding to the musical instrument type “E guitar”, the user can input the input channel 21-1.
  • the I icon 3e of “E guitar” and the P icon 3f of “member A” displayed in the instrument display area 3d are selected.
  • the user displays the “organ” I icon 3e displayed in the musical instrument display area 3d of the input channel 21-3. And “P” of “member F” is selected. Furthermore, if the “member G” who is the singer is actually a woman, the “F vocal (female vocal)” I icon 3e and the “member G” displayed in the instrument display area 3d of the input channel 21-2. "P icon 3f” is selected.
  • the CPU 40 associates the instrument type of the I icon 3e with the input ch 21-n of the instrument display area 3d on which the I icon 3e is displayed,
  • the instrument type ch setting data of the I icon 3e is set in the input ch 21-n, and the display 44 is controlled so that the I icon 3e is displayed in close contact with the P icon 3f as shown in FIG.
  • the input ch 21-n, the instrument type, and the member are associated with each other when the user selects the I icon 3e and the P icon 3f.
  • the user can select the desired instrument type from all instrument types defined in the setting program.
  • the instrument type can be selected and an I icon 3e for that instrument type can be added to the instrument display area 3d. That is, the user can specify an arbitrary instrument type that is not limited to the estimated instrument type for each input channel 21-n.
  • the casting mode process (part 1), when the member in charge of the musical instrument performs with the cable from the musical instrument connected to the input port 20 of the mixer 1, the input of the sound signal of the musical instrument is input.
  • the tablet terminal 2 displays the I icon 3e of the musical instrument type corresponding to the performance sound represented by the input sound signal in the musical instrument display area 3d of the detected input ch 21-n. Then, while the user watches the band member on the stage and the musical instrument played by the member, the musical instrument icon (I icon 3e) displayed on the screen and the player icon (P icon 3f) of the member are displayed. ) Is remotely set to the input channel 21-n of the mixer 1 for the instrument type of the instrument played by the member.
  • a musical instrument icon (I icon 3e) indicating a musical instrument type displayed on the screen and a member's performer while watching the band members on the stage and the musical instruments played by the members.
  • the casting mode process (part 2) shown in FIG. 8 as the second embodiment will be described.
  • the CPU 40 reads out the member data of the band name “Band A” displayed on the band name display unit 3a in Step S40, and displays the member data constituting the band. Acquire player information. Based on the player information acquired in step S40 in step S41, the CPU 40 causes the display unit 44 to display a P icon 3f that is a player icon on the screen 3 in the casting mode (an example of a player icon display procedure).
  • the band of “Band A” is composed of four members “Member A”, “Member C”, “Member F” and “Member G”, and the P icon of these four members 3f is displayed on the screen 3 in the casting mode.
  • the P icon 3f representing the member cannot be displayed on the screen 3, it is displayed by scrolling or layer switching.
  • step S42 the CPU 40 detects the selected P icon 3f.
  • step S43 the CPU 40 determines whether or not the input ch 21-n to which the sound signal is input has been detected.
  • the CPU 40 displays the display 44 in step S44.
  • the instrument display area 3d corresponding to the input channel 21-n to which the sound signal is input is displayed on the screen 3.
  • step S43 the process waits until the member of the selected P icon 3f plays the musical instrument and the sound signal is input.
  • the CPU 40 associates the member corresponding to the P icon 3f detected in step S42 with the input ch 21-n to which the sound signal is input in step S43.
  • step S46 the CPU 40 performs waveform analysis of the sound signal input to the input ch 21-n, and calculates a feature amount of each sound signal.
  • step S47 the CPU 40 calculates a possibility coefficient for each instrument type. This possibility coefficient can be calculated by the CPU 40 or the DSP of the signal processing unit 15 of the mixer 1.
  • the tablet terminal 2 may be connected to a network via the external I / O 43, and a server on the network may calculate the possibility coefficient.
  • step S48 the CPU 40 determines whether or not a type candidate has been estimated for the sound signal input to the input ch 21-n. In this case, the CPU 40 estimates an instrument type having a possibility coefficient exceeding a predetermined threshold among the possibility coefficients calculated for each instrument type in step S47 as a candidate type of the sound signal input to the input ch 21-n. .
  • the type candidate is estimated (Yes in step S48)
  • step S49 the CPU 40 estimates the type estimated for the sound signal input to the input ch 21-n in the instrument display area 3d corresponding to the input ch 21-n.
  • the candidate musical instrument icon (I icon) 3e is displayed on the display 44 in a manner corresponding to the calculated possibility coefficient (an example of a musical instrument icon display procedure).
  • the CPU 40 identifies the type candidate having the largest possibility coefficient among the plurality of estimated type candidates as the instrument type of the input ch 21-n, and selects the ch of the corresponding instrument type in the input ch 21-n. Set the setting data. You may show the magnitude
  • step S51 the CPU 40 assigns the specified musical instrument type as the musical instrument type of the member of the P icon 3f detected in step S42, and adds the assigned musical instrument type to the musical instrument information of the performer information of the performer. .
  • the member, the instrument type of the instrument played by the member, and the input ch 21-n to which the sound signal representing the performance sound of the instrument is input are associated with each other. That is, the member, the instrument type of the instrument played by the member, and the input ch 21-n to which the sound signal representing the performance sound of the instrument is input are associated with each other.
  • Step S52 the CPU 40 in the musical instrument display area 3d corresponding to the input ch 21-n.
  • an icon indicating that the instrument is unknown for example, an icon of “?”
  • the CPU 40 visually associates the musical instrument type I icon 3e with the player P icon 3f to which the musical instrument type is assigned (an example of an association procedure).
  • the display unit 44 displays the I icon 3e and the P icon 3f in a manner indicating that they are visually associated with each other. For example, as shown in FIG. 5, the selected I icon 3e is displayed in close contact with the P icon 3f.
  • step S54 the CPU 40 determines whether or not the casting mode has been completed.
  • the process returns to step S42 and the processes from step S42 to step S53 described above are performed again.
  • the musical instrument type of the musical instrument to be played is assigned to all members of the band, and the sound signal of the musical instrument performance sound represented by the musical instrument type is supplied.
  • the channel setting data of the assigned instrument type is set to the input channel 21-n.
  • the casting mode process part 2 is finished.
  • the mixer 1 has no input patch, and the input port 20 to which the sound signal from the musical instrument is supplied and the input ch 21-n correspond one-to-one. is doing.
  • a cable from the musical instrument is connected to the input port 20 of the mixer 1, and the P icon 3f corresponding to one of the band members on the stage is selected, and the member plays his musical instrument.
  • the channel setting data peculiar to the instrument type of the instrument is set in the input channel 21-n to which the sound signal of the performance sound of the instrument is input.
  • the musical instrument type represented by the performance sound of the sound signal input to the input channel 21-n is assigned to the member corresponding to the P icon 3f selected by the user, the musical instrument type and input of the musical instrument played by the member and the member are input. Correlation with ch21-n can be easily performed.
  • the stage mode screen 4 shown in FIG. 6 is displayed on the display 44.
  • a band name display section 4b and a mode selection section 4c are provided at the top of the stage mode screen 4.
  • the band name “Band A” displayed in the band name display unit 4b is a band name selected in the casting mode, and the user cannot select another band name in the stage mode.
  • the mode selection unit 4c either the casting mode or the stage mode can be selected, and the letter “Stage” is displayed in white and the stage mode is selected.
  • the stage 4a imitating the actual stage played by the selected band is displayed on the entire screen 4 in the stage mode, and a player icon (P icon) representing the members constituting the selected band is displayed on the stage 4a.
  • a player icon (P icon) representing the members constituting the selected band is displayed on the stage 4a.
  • a musical instrument icon (I icon) 4d indicating the musical instrument type of the musical instrument played by the member
  • SP icons 4e of the speaker for speakers (SP1, SP2) and the speaker for monitoring (SP3) are displayed.
  • the I icons 4d are displayed for the number of instrument types assigned to all members in the casting mode.
  • An I icon 4d is displayed at the position on the stage 4a of the member to which the instrument type is assigned, that is, at the position where the instrument is arranged.
  • the P icon 4p is displayed for the number of members of the band designated in the casting mode, and is displayed at the position of the member on the stage 4a.
  • the display position of the I icon 4d is the same as the display position of the P icon 4p.
  • the I icon 4d can be a card (I card) displayed with an instrument type or an illustration of the instrument type
  • the P icon 4p is a member's name (stage name) or a face photo or face illustration. It can be a card (P card) displayed in.
  • I icons 4d of “E guitar”, “E bass”, “F vocal”, “piano” and “organ” are placed on the P icon 4p of the member to which the instrument type is assigned. Each is displayed in close contact.
  • “E guitar” is assigned to “Member A”
  • “E bass” is assigned to “Member C”
  • “F vocal” is assigned to “Member G”
  • two instrument types “piano” and “organ” are assigned. Is assigned to “Member F”.
  • the I icons 4d are displayed side by side.
  • the SP icon 4e of each speaker is displayed at a position on the stage 4a designated by the user.
  • the member of the P icon 4p, the instrument type of the I icon 4d, and the input ch 21-n to which the sound signal representing the performance sound of the instrument type is input correspond to each other.
  • “E guitar” of member A corresponds to input ch 21-1
  • “E bass” of member C corresponds to input ch 21-7
  • “F vocal” of member G corresponds to ch 21-2
  • member F “Piano” and “organ” correspond to the input ch 21-8 and the input ch 21-3, respectively, and that the user selects the I icon 4d or the P icon 4p selects one input ch 21-n.
  • the user can set parameters without knowing the input channel 21-n.
  • Adjustment knobs 4h to 4k, switch 4s On the right side of the screen 4, there are operation icons (adjustment knobs 4h to 4k, switch 4s) relating to signal processing by the input channel, an I icon 4d of the instrument type associated with the input ch 21-n to be adjusted, and a member P icon.
  • a member selection display unit 4m for displaying 4p and a speaker selection display unit 4n for displaying the SP icon of the speaker to which the sound signal is sent are displayed.
  • the adjustment knobs 4h to 4j adjust the characteristics of the sound signal of one input ch 21-n.
  • the adjustment knob 4k adjusts the volume of sound output by sending the sound signals adjusted by the adjustment knobs 4h to 4j to individual speakers.
  • the switch 4s switches on / off each of the ch switches 34a to 34f.
  • step S100 the CPU 40 sets the musical instrument type (sound source type) associated with the input channel 21-n in the register SS-n.
  • instrument type SS-n the instrument type set in the register SS-n
  • step S101 the CPU 40 continuously determines the level of the sound signal supplied from the nth input port to the input ch 21-n according to a rule to be described later according to the instrument type SS-n, and sends it to the gain finder 4q. indicate.
  • the gain finder 4q displays a determination result of “It is better to increase the gain” or “It is better to lower the gain”, and guides the user's gain adjustment.
  • the gain finder 4q arranged on the left side of the gain adjustment knob 4h on the screen 4 has a shape in which two triangles are arranged vertically and their vertices face each other.
  • the CPU 40 lights the lower triangle when the gain should be increased, and lights the upper triangle when the gain should be lowered.
  • the gain finder 4q guides the sound signal level to be low for a performance sound whose level changes abruptly, and guides the sound signal level to be high for a performance sound whose change is small.
  • a reference level is set, and the sound signal level is guided to the reference level.
  • the upper inverted triangle is lit, instructing to lower the gain.
  • the display process of the gain finder 4q in step S101 continues while the screen 4 is displayed. When the process ends, the process of setting the instrument type SS-n to the input ch 21-n ends.
  • the user when the user selects the P icon 4p of “Member A”, the I icon 4d of “E guitar”, and the SP icon 4e of “SP3”, the user operates the adjustment knobs 4h to 4k of the operation icons. By doing this, it is possible to adjust various parameter values included in the ch setting data of the input ch 21-n (input ch 21-1 in FIG. 6) to which the sound signal of “E guitar” of member A is supplied.
  • the user can adjust the gain of the attenuator 30 with the adjustment knob 4h while looking at the guide of the gain finder 4q.
  • the user can adjust the frequency characteristic of the equalizer 31 with the adjustment knob 4i.
  • the user can adjust the characteristics of the dynamics 32 with the adjustment knob 4j.
  • the user can individually adjust the gains of the faders 33a to 33f with the adjustment knob 4k.
  • the CPU 40 detects the operation (value change instruction), and a signal corresponding to the operation of the adjustment knobs 4h to 4k of the input ch 21-n shown in FIG. Start processing.
  • step S80 the CPU 40 sets the operation amount x detected by the adjustment knobs 4h to 4k of the input ch 21-n in a register.
  • step S81 the CPU 40 changes one or more parameters of the input ch 21-n according to the rule corresponding to the instrument type SS-n according to the operation amount x (an example of an adjustment procedure).
  • the signal processing corresponding to the operation of the adjustment knobs 4h to 4j for the input ch 21-n is completed.
  • a rule is a rule that guides the user or adjusts the balance of a plurality of parameter values so that the parameter specified by the user is suitable for the instrument type SS-n, and is prepared for each instrument type. Yes.
  • the rule data 6 includes “vocal rules”, “E guitar rules”, “A guitar rules”, “E bass rules”, “organ rules”, “piano uses”. Prepared for each instrument type, such as “rule”, “brass rule”, and “strings rule”, and the user can set parameters with rules according to the instrument type SS-n.
  • an adjustment knob 4i for adjusting the equalizer 31 and an adjustment knob 4j for adjusting the dynamics 32 are displayed.
  • the CPU 40 displays a plurality of parameter values of the module. Is changed with a predetermined balance. For example, a plurality of specific positions (specific angles) are provided in the adjustment ranges (rotation ranges) of the adjustment knobs 4i and 4j, and different parameter value sets are assigned to the specific positions.
  • the adjustment knobs 4i and 4j are at the specific positions, the assigned set of parameters is applied to the module.
  • the adjustment knobs 4i and 4j are between the two specific positions, the two specific positions are applied to the module.
  • each band data includes ch setting data for each of a plurality of members as many as the number of instrument types that the member is responsible for.
  • the band data includes the ch setting data used at that time.
  • the input ch 21-n to which a sound signal corresponding to that instrument type is input is input as ch setting data.
  • Predetermined initial data is set. This initial data is arbitrary data common to the instrument type.
  • the parameter value that does not compress the time change of the level in the dynamics 32, the parameter value that has a flat frequency characteristic in the equalizer 31, and the data ( ⁇ decibel) in which the gain is reduced to zero is input as the initial data.
  • ch21-n is set.
  • the instrument type is associated with the input channel 21-n, and the user adjusts each parameter value of the channel setting data using a rule corresponding to the instrument type.
  • the CPU 40 selects a speaker (from the selected input channel 21-n (in this case, the channel corresponding to “Member A” and “E Guitar”)). In this case, the gain value of the fader (one of 33a to 33f) of the route to “SP3”) is changed according to the position of the adjustment knob 4k. Further, according to the user's operation of selecting the switch 4s, the CPU 40 inverts the state of the ch switch (one of 34a to 34f) on the same path between ON and OFF (toggle).
  • the sound signal whose characteristics are adjusted by the equalizer 31 and the dynamics 32 of the input channel 21-n is supplied to the speaker on the route where any one of the ch switches 34a to 34f is turned on among the plurality of speakers on the plurality of routes. .
  • the sound signal is supplied at a level adjusted by the faders 33a to 33f.
  • the user can adjust the characteristics of the performance sound of “Etarguitar” performed by “Member A” with rules according to the instrument type.
  • the performance sound characteristic of the instrument type can be adjusted by a rule corresponding to the instrument type.
  • the supply of the sound signal after adjusting the characteristics to another speaker can be controlled.
  • the parameter to be adjusted is a parameter in the current data of the current memory of the mixer 1.
  • a store button 4g and a scene selection button 4f corresponding to each of the scene numbers “1” to “4” are displayed.
  • the CPU 40 selects the current data in the current memory as the scene data of the scene number selected by clicking the scene selection button 4f.
  • the current data includes the channel setting data of the plurality of input channels 21-n adjusted by the adjustment knobs 4h to 4k and the switch 4s.
  • each band data 5 includes current data and a plurality of scene data.
  • Each of the plurality of scene data 1 to 4 is data corresponding to each of the scenes 1 to 4.
  • the CPU 40 When the user clicks one scene selection button 4f, the CPU 40 reads the scene data of the scene number corresponding to the clicked scene selection button 4f, writes it in the current memory of the mixer 1, and the scene corresponding to the scene data is displayed. Set mixer 1 remotely so that it is reproduced.
  • FIG. 12 shows four band data 5 stored in the flash memory 11 (and tablet terminal 2) of the mixer 1 in accordance with the user's save instruction.
  • Each band data 5 has a similar data structure, and the band data 5 selected by the user is read into the RAM 42 of the mixer 1 and used for controlling the mixer 1.
  • Each of the current data and the scene data 1 to 4 includes a header, ch setting data for each instrument type corresponding to each member, and ch setting data for each speaker.
  • the header includes the number of members of the band and player information of each member corresponding to the number of members.
  • the player information includes the ID (may be a name) of each member, the instrument information of the member, and a face photograph or illustration displayed on the P icon 3f representing the member.
  • the channel setting data for each instrument type is a set of parameters set in each module such as the equalizer 31 and the dynamics 32 of the input channel 21-n as described above.
  • the channel setting data of each speaker is a set of parameters set in a plurality of modules of one input channel 21-n.
  • the channel setting data of each instrument type included in the band data 5 corresponds to one instrument type of one member of the band defined in the header, and the visual display of the P icon 3f and the I icon 3e described above.
  • one input channel 21-1 of the mixer 1 is set.
  • FIG. 12 as the channel setting data for the input channel 21-n, “member A E guitar”, “member A M vocal”, “member C E bass”, “member F organ”, “member F piano”, and “member G” are displayed. F vocal "etc. are prepared.
  • a header is prepared for each of the current data and scene data 1 to 4.
  • the ch library 7 of FIG. 15 may be prepared individually in each band data 5, or only one ch library 7 may be prepared and shared by a plurality of band data.
  • An example of the data structure of the ch library 7 is shown in FIG.
  • the ch library 7 is, for example, “Preset 1 for vocal”, “Preset 2 for piano”, “Preset 3 for vocal”, “Preset 4 for E guitar”, “Preset 5 for E guitar”, “Preset 6 for E bass” ”,“ Preset 7 for vocal ”,“ Preset 8 for E guitar ”and“ Preset 9 for E bass ”respectively.
  • the ch setting data is the ch of the designated preset number. Saved as setting data.
  • “E guitar” is given to the saved ch setting data as an attribute.
  • the library A screen 8 is displayed.
  • the library A screen 8 is an image in which only the ch setting data having the attribute “E guitar” in the ch library 7 is arranged as a list as an option.
  • step S31 the CPU 40 causes the display 44 to display a pop-up display of the library A screen 8 including the list of ch setting data extracted in step S30.
  • the preset of the attribute (instrument type) of “E guitar” is displayed on the Library A screen 8.
  • a list of will be displayed.
  • the display of the list includes a column 8a for displaying a preset name assigned to each preset by the user and a column 8b for displaying a comment assigned to each preset.
  • presets having the same attributes as the musical instrument “E guitar” of the input channel 21-1 are displayed. That is, the presets 4, 5, 8, and 9 having the attribute “E guitar” are displayed in the preset name column 8a.
  • the comments displayed are “Preset 4” for “'15 / 06 live”, “Preset 5” for “Use analog COMP”, and “Preset 8” for “Pickup A”.
  • the hatching in the “Preset 8” column 8a and column 8b indicates that the preset is selected.
  • the CPU 40 adds “E guitar” to the ch setting data of the input ch 21-1 of the current “Member A E guitar” in FIG.
  • the attribute is assigned and stored in the ch library 7 as “Preset 8”.
  • the CPU 40 When the user clicks “Recall” 8d (calling instruction), the CPU 40 reads out the channel setting data of “preset 8” from the channel library 7 (an example of a calling procedure), and stores the channel setting data in the current “ The input channel 21-1 of “E guitar” assigned to the member A is set.
  • the CPU 40 causes the display 44 to close the library A screen 8 being displayed.
  • the CPU 40 executes the process of FIG. 17 to display the library B screen 9 shown in FIG. That is, when the click of the library button 4r “B” is detected, the CPU 40 first corresponds to the same instrument type as the instrument type SS-n from the scene data 1 to 4 of the plurality of band data in step S90. Ch setting data is extracted as a preset (an example of a selection procedure).
  • step S41 the CPU 40 causes the display 44 to pop up the library B screen 9 including a list display of the channel setting data extracted in step S90.
  • step S91 the process for the operation of opening the library B in the input channel 21-n is completed.
  • the instrument type SS ⁇ of “E guitar” is displayed on the Library B screen 8.
  • a list of 1 preset (ch setting data) is displayed. The list is displayed by a data source column 9a for displaying the source from which the channel setting data is extracted (which member data of which band data) and a comment such as a scene name given to the scene of the scene data by the user. And a column 9b to be displayed.
  • the displayed comments are, for example, “Live A” for the source “Band B Scene 2 Member V”, “Live B” for “Band B Scene 2 Member W”, and “Opening” for “Band C Scene 1 Member D”.
  • the current data of the band data 5 and the channel setting data of the scene data 1 to 4 correspond to one type of musical instrument that can be played by any one of a plurality of members defined in the header of the band data. Therefore, in the library B, presets of the same instrument type as the instrument type associated with each input ch 21 -n can be recalled from a plurality of band data 5 for each input ch 21 -n. Thereby, it is possible to try the ch setting data of members who are in charge of the same instrument type in other bands.
  • the user can adjust the parameters of the channel setting data of each input channel 21-n with a rule corresponding to the instrument type associated with the input channel 21-n, and save it.
  • the channel setting data adjusted by the same rule can be called to each input channel 21-n.
  • Fig. 18 shows a flowchart of the entire stage mode process.
  • the stage mode process shown in FIG. 18 starts when the “Stage” button of the mode selection unit 3c is clicked on the screen 3 in the casting mode.
  • the CPU 40 causes stage information such as the depth and size of the stage to be played by the band selected in the casting mode, player information of each member constituting the band, and player position information that is the position of the member on the stage.
  • the musical instrument information of the musical instrument played by the member, the speaker information for the passenger seat and the monitor, and the speaker position information which is the position of the speaker are acquired (an example of a position information acquisition procedure).
  • step S61 the CPU 40 controls the display 44, and based on the player information, player position information, and instrument information acquired in step S60, the P icon 4p of each member and each member are assigned.
  • the musical instrument type I icon 4d and the speaker icon 4e are displayed on the stage 4a corresponding to the stage information acquired in step S60 (an example of a stage display procedure and an icon display procedure).
  • the CPU 40 has four P icons 4p for each of “member A”, “member C”, “member F” and “member G” of the band, and “E guitar” assigned to each of these members.
  • the CPU 40 displays the speaker icon 4e of the speaker for the passenger seat (SP1 and SP2) and the speaker for the monitor (SP3) based on the speaker information and the speaker position information.
  • the instrument type I icon 4d assigned to each member of the band and the SP icon 4e of each speaker are displayed at a position on the stage 4a on the screen 4 corresponding to the actual position on the stage.
  • step S62 the CPU 40 has performed an operation for changing the position of the I icon 4d and the P icon 4p or the position of the speaker icon 4e on the stage 4a (for example, an operation of dragging the icon to move it to another position). Judge whether or not.
  • an operation for changing the position of the I icon 4d and the P icon 4p or the position of the speaker icon 4e is performed on the stage 4a (Yes in step S62)
  • the player position information or the speaker position information is updated according to the change.
  • step S64 the CPU 40 controls the display 44 so that the P icon 4p and the I icon 4d or the SP icon 4e are displayed according to the updated player position information or speaker position information. To do.
  • step S62 When the operation of changing the position of the I icon 4d and the P icon 4p or the position of the speaker icon 4e is not performed (No in step S62), or when the process of step S64 is completed, a set of visually associated sets
  • the CPU 40 in step S65 selects the selected I icon 4d.
  • the P icon 4p and the SP icon 4e are hatched and displayed on the display unit 44.
  • the selected I icon 4d and P icon 4p are displayed on the member selection display unit 4m, and the selected SP icon 4e is displayed on the speaker selection display unit 4n.
  • step S66 the CPU 40 adjusts the volume of the output channel 23 to be output to the speaker of the selected SP icon 4e from the input channel 21-n associated in the casting mode process with the musical instrument type corresponding to the selected I icon 4d.
  • the adjustment knob 4k to be displayed is displayed on the display 44.
  • step S67 the CPU 40 displays the parameter operation icons (adjustment knobs 4h to 4j) of the effector (attenuator 30, equalizer 31, and dynamics 32) in the input channel 21-n associated with the selected I icon 4d on the display 44.
  • step S68 the CPU 40 determines whether or not the values of the adjustment knobs 4h to 4k are changed on the screen 4.
  • step S69 the CPU 40 updates the current data in the current memory with the parameter values changed according to the operation of the adjustment knobs 4h to 4k. The change is reflected (an example of a signal processing procedure).
  • step S70 the stage mode process is ended.
  • step S70 When any operation is performed in the above-described stage mode (No in step S70), the process returns to step S62 and the processes from step S62 to step S69 are performed again.
  • step S62 By repeatedly performing the processing from step S62 to step S69, it is possible to adjust the sound quality and volume when the performance sound of all the members of the band is emitted from each speaker (SP1, SP2, and SP3).
  • a plurality of musical instrument types are assigned to the members by casting mode processing. For example, two instrument types “piano” and “organ” are assigned to “member F” on the screen 4 in the stage mode.
  • the I icons 4d corresponding to each of “piano” and “organ” are displayed in an overlapping manner.
  • the member F corresponds to two instrument types. It is possible to adjust the sound quality and volume of each performance sound (sound signal) when performing.
  • the user can identify which member is playing the instrument simply by looking at the I icon 4d on the screen 4, and easily adjust the sound quality and volume of the performance sound of the instrument played by the member. be able to.
  • the mixer 1 to which the tablet terminal 2 that executes the setting program is connected does not include the input patch
  • the input port and the input ch 21-n have a one-to-one correspondence. Yes. Therefore, when a cable from an instrument is connected to the input port of the mixer and a member plays the instrument, a plurality of type candidates of the instrument are associated with the input ch 21-n corresponding to the input port. Then, the channel setting data peculiar to the instrument type specified from the plurality of type candidates is set in the input channel 21-n.
  • the musical instrument icon I icon 4d
  • P icon 4p By visually associating with an operation such as a drop, it is possible to easily associate the member, the instrument type, and the input channel 21-n.
  • the band Since the band has a fixed member, the performance and practice performance are repeated with the same member composition and the same instrument composition.
  • the setting program according to the present embodiment is activated, when a new member is added to the band or when an existing member plays a new musical instrument, the sound signal of the musical instrument played by the member is input.
  • Predetermined initial data is set as the channel setting data in the input channel 21-n, and the user adjusts each parameter according to a rule corresponding to the instrument type. Then, the adjusted ch setting data is stored in the band data.
  • the stored band data is read, and the channel setting data is set to the input ch 21-n to which the sound signal of the instrument of the member is input. Can do.
  • the member when the performance sound type candidate represented by the sound signal is estimated, if there is only one member who plays the musical instrument represented by the estimated type candidate with reference to the player information, the member is inferred.
  • the musical instrument icon (I icon 4d) of the class candidate is automatically visually associated with the player icon (P icon 4p) of the member, and the class candidate is specified as the musical instrument type assigned to the member. It may be.
  • the instrument information indicating the assigned instrument type is added to the member's player information, what instruments can be played in the member's player information when the casting mode is first started. Even if there is no information, by adding the instrument information of the assigned instrument type to the player information, information that the instrument corresponding to the instrument type can be played is set in the player information. .
  • a band it is common for a band to use a stage where a performance is performed multiple times in practice to prepare for the performance.
  • the setting program of the present invention is activated on the tablet terminal 2, and the channel setting data corresponding to the instrument type of the instrument played by each member of the band is set in the mixer. .
  • the set channel setting data can be saved in the built-in memory of the tablet terminal 2 or an externally connected memory, and the next time the stage is used, the saved band data is read to set the mixer. Can be completed.
  • the members who are absent at that time are displayed in casting mode, but the members who are not assigned instrument type in casting mode. Since no musical instrument icon is displayed on the icon, absent members are not displayed in the stage mode.
  • the volume-adjusted instrument icon (I icon 4d) may be displayed in a size corresponding to the volume to make it easier to grasp the overall volume balance.
  • the size of the musical instrument icon corresponding to the musical instrument is changed in accordance with the volume of the musical instrument emitted from the speaker for the passenger seat (SP1 and SP2).
  • the speaker icon if the speaker icon is selected first, the size of the instrument icon is changed according to the volume of the performance sound output from the speaker corresponding to the speaker icon.
  • the size of the speaker icon corresponding to the speaker to which the performance sound of the instrument represented by the instrument type corresponding to the instrument icon is output may be changed according to the volume.
  • the volume may be adjusted according to an operation for changing the size of the musical instrument icon or the speaker icon.
  • a BGM icon representing background music input from a musical tone playback device including a portable one is displayed, a BGM icon and an SP icon corresponding to a speaker that plays BGM are selected, and the volume of the BGM is set.
  • the depth of the reverb may be changed by changing the size of the displayed stage 4a on the stage mode screen.
  • the size of the stage 4a can change the size of the displayed stage 4a according to the interval between a plurality of fingers touched on the screen. For example, the interval between the touching fingers increases.
  • the setting program of the present invention described above is an application program for a tablet terminal, but is not limited to a tablet terminal, and may be an application program for an information device such as a smartphone or a personal computer.
  • the CPU 40 in FIG. 4 functions as the position information acquisition unit 61, the display control unit 63, the association unit 65, and the signal processing unit 67 as illustrated in FIG.
  • the position information acquisition unit 61 acquires the position information of the performer on the stage and the position information of the speaker.
  • the display control unit 63 includes a performer icon display unit 52, a musical instrument icon display unit 54, a stage display unit 56, and an icon display unit 58, and displays various images to be viewed when the user performs an operation on the display unit 44.
  • the performer icon display unit 52 causes the display unit 44 to display a performer icon (P icon 4p) corresponding to the performer performing the musical instrument.
  • the musical instrument icon display unit 54 corresponds to the input ch 21-n with a musical instrument icon (I icon 4d) corresponding to the musical instrument type corresponding to the performance sound represented by the sound signal input to the input ch 21-n that performs signal processing.
  • the stage display unit 56 acquires stage information and displays the stage on the display.
  • the icon display unit 58 is located on the stage displayed by the stage display unit 56 and at a position corresponding to the player's position information acquired by the position information acquisition unit 61.
  • An instrument icon representing the assigned instrument type is displayed, and a speaker icon (SP icon 4e) is displayed at a position corresponding to the position information of each speaker acquired by the position information acquisition unit 61.
  • the associating unit 65 visually associates the player icon and the musical instrument icon.
  • the signal processing unit 67 includes an adjustment unit 72, a storage unit 74, a selection unit 76, and a calling unit 78, and is based on a selection operation between a player icon or a musical instrument icon and a speaker icon displayed on the icon display unit 58.
  • the sound signal of the performance sound of the musical instrument represented by the musical instrument type corresponding to the selected musical instrument icon is processed.
  • the adjustment unit 72 specifies the instrument type assigned to the performer, and regarding the input ch 21-n for performing signal processing on the sound signal in accordance with a plurality of parameter values of the current ch setting data. In accordance with the value change instruction, the parameter value included in the channel setting data is adjusted according to the rule corresponding to the designated instrument type.
  • the storage unit 74 associates the current ch setting data of the input channel 21-n with the specified instrument type in accordance with a storage instruction from the user, and stores the storage unit (for example, the flash memory 11 or the flash memory 42, or the external (Memory).
  • the selecting unit 76 selects ch setting data of a musical instrument type that is the same as or similar to the designated musical instrument type from among a plurality of ch setting data stored in the storage unit.
  • the calling unit 78 receives a call instruction for any of the ch setting data from the ch setting data selected by the selection procedure, and uses the ch setting data designated by the call instruction as the current ch setting data. call.
  • the type candidate is estimated by analyzing the sound signal.
  • the method for estimating the type candidate is not limited to the above examples.
  • the type candidate may be estimated by analyzing an image obtained by photographing a musical instrument with an imaging device such as a digital camera or a digital camcorder. Specifically, by registering in advance the feature amount of the image of the instrument for each instrument type, and comparing the feature amount of the image obtained by actually shooting the instrument with the feature amount of each registered instrument type, It is possible to specify type candidates.
  • the CPU 40 calculates the feature amount of the image of each musical instrument using a known image recognition technique.
  • the CPU 40 calculates the similarity between the feature amount of the photographed musical instrument image and the feature amount of the image of each instrument type prepared in advance, and one or more according to the similarity degree for each instrument type. Identify type candidates. It is also possible to specify the instrument type from the result of photographing an identification code (for example, a bar code or a QR code (registered trademark)) describing the instrument type. In the configuration in which the musical instrument type is specified from the musical instrument image, the input channel 21-n of each musical instrument is designated by an operation by the user, for example.
  • an identification code for example, a bar code or a QR code (registered trademark)
  • identification phrase a specific melody selected in advance for each instrument type. For example, a separate identification phrase is registered for each of a plurality of instrument types. The melody played by the member is discriminated from the sound signal, and a type candidate corresponding to an identification phrase similar to the melody played by the member is estimated from a plurality of identification phrases registered in advance.
  • the configuration in which the channel setting data is stored in the storage unit (the flash memory 11 or the flash memory 42, or the external memory) is illustrated, but the method for the mixer 1 or the tablet terminal 2 to acquire the channel setting data is It is not limited to the illustration.
  • an identification code bar code or QR code (registered trademark)
  • QR code registered trademark
  • a computer-readable recording medium in which a program according to a preferred embodiment (aspect 1) of the present invention is recorded is a player icon display for causing a computer to display a player icon corresponding to a player performing a musical instrument on a display.
  • Instrument icon display procedure for displaying the instrument icon corresponding to the instrument type corresponding to the instrument type corresponding to the procedure and the performance sound represented by the sound signal input to the input channel for signal processing on the display unit, corresponding to the input channel, and
  • An association procedure for visually associating the performer icon and the instrument icon is executed. Therefore, the association between the musical instrument type corresponding to the musical instrument icon and the performer corresponding to the performer icon becomes clear.
  • each of a plurality of instrument type candidates estimated on the basis of the sound signal input to the input channel is displayed on the display unit as an instrument icon. Then, the most likely instrument type candidate is highlighted and displayed on the display.
  • each of a plurality of musical instrument type candidates estimated based on the sound signal input to the input channel is displayed as a musical instrument icon on the display.
  • the musical instrument icon of the most likely musical instrument type among the musical instrument type candidates is visually associated with the player icon.
  • a computer-readable recording medium on which a program according to a preferred aspect (aspect 6) of the present invention is recorded comprises: a stage display procedure for causing a computer to acquire stage information and display a stage on a display; The position information acquisition procedure for acquiring the position information and the position information of the speaker, and the player at the position corresponding to the position information of the performer acquired by the position information acquisition procedure on the stage displayed on the display Icon for displaying the speaker icon at a position corresponding to the position information of each speaker acquired in the position information acquisition procedure, while displaying the player icon and the instrument icon of the instrument type assigned to the player.
  • Procedure and selection of player icon or instrument icon and speaker icon displayed in icon display procedure Based on the work, to perform a signal processing procedure for processing a sound signal the musical instrument performance sound represented by the musical instrument type corresponding to the instrument icon selected. Therefore, the user can easily adjust the quality and volume of the performance sound of the musical instrument played by the member only by looking at the player icon, the musical instrument icon, and the stage displayed on the display.
  • ⁇ Aspect 8> in the signal processing procedure, the instrument type assigned to the performer is specified, and the signal processing according to the plurality of parameter values of the current setting data for the sound signal
  • the input channel is subjected to an adjustment procedure for adjusting the parameter value included in the setting data according to a rule according to the specified instrument type, and an input according to the storage instruction from the user.
  • the current setting data of the channel is associated with the specified instrument type, and stored in the storage unit and the same as the specified instrument type from the plurality of setting data stored in the storage unit or
  • a selection procedure for selecting setting data of similar instrument types and a setting instruction selected by the selection procedure are received by the user and an instruction to call any setting data is received.
  • the rule is a rule that defines an optimum value of the level of the sound signal transmitted from the input channel presented to the user.
  • the rule is a rule that defines a change characteristic in which a plurality of parameters of the equalizer or the dynamics in the input channel are linked.
  • the storage unit stores a plurality of setting data respectively corresponding to a plurality of performers.
  • the same or similar instrument types are used for the input channels.
  • the setting data of the same performer is selected.
  • ⁇ Aspect 12> In a preferred example of aspect 6 (aspect 12), a plurality of band data composed of a plurality of setting data respectively corresponding to a plurality of performers are stored in the storage unit, and the selection procedure includes a plurality of band data for the input channel. The setting data corresponding to the designated instrument type is selected from the plurality of setting data.
  • a computer displays a player icon corresponding to a player who performs a musical instrument on a display unit and is input to an input channel for signal processing.
  • a musical instrument icon corresponding to the musical instrument type corresponding to the performance sound represented by the sound signal is displayed on the display unit corresponding to the input channel, and the performer icon and the musical instrument icon are visually associated with each other. Therefore, the association between the musical instrument type corresponding to the musical instrument icon and the performer corresponding to the performer icon becomes clear.
  • the computer acquires the stage information and causes the display to display the stage, and acquires the position information of the performer on the stage and the position information of the speaker.
  • the player icon of the performer and the instrument icon indicating the instrument type assigned to the performer are respectively displayed on the stage displayed on the display unit at a position corresponding to the acquired position information of the performer.
  • a speaker icon is displayed at a position corresponding to the acquired position information of each speaker, and it corresponds to the selected musical instrument icon based on the selection operation of the displayed player icon or musical instrument icon and speaker icon.
  • the sound signal corresponding to the performance sound of the musical instrument represented by the musical instrument type to be processed is processed. Therefore, the user can determine which member is playing the instrument simply by looking at the player icon, instrument icon, and stage displayed on the display, and easily adjust the sound quality and volume of the performance sound of the instrument played by the member. can do.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

プログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに、楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させる演奏者アイコン表示手順と、信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、入力チャンネルに対応させて、表示器に表示させる楽器アイコン表示手順と、演奏者アイコンと、楽器アイコンとを視覚的に関連付ける関連付け手順とを実行させる。

Description

プログラムを記録した記録媒体および表示制御方法
 この発明は、音信号処理装置のセッティングを簡単に行うことができる技術に関する。
 従来、ステージ等に配置されたマイクに入力された歌唱音や楽器の演奏音等の音信号のレベルや周波数特性を調整してミキシングし、パワーアンプに送り出すステージ等で使用されるミキサが知られている。ミキサは音信号処理装置の一種であって、楽器音や歌唱音の音信号を扱う複数のチャンネルを有し、各チャンネルでは、演奏において最もふさわしい状態に音信号の音量および音色が調整されている。
 従来のミキサにおける各チャンネルのセッティングでは、ユーザが、入力ポートがどの入力チャンネルにつながれているかを確認することで、それぞれの入力チャンネルにどの楽器からの音信号が入力されているか、および、演奏される楽器の種別を把握して、各チャンネルの音量や音色の細かいパラメータの設定を行う。
 ここで、各チャンネルには、アッテネータ、イコライザ、ダイナミクスおよびフェーダが備えられているとして、チャンネルのセッティングを説明する(非特許文献1参照)。まず、ミキサのそれぞれのチャンネルのインプットのゲインをアッテネータで調整する。各チャンネルのレベルが適正になったら、実際に曲を演奏してバランスよく聞こえるようにフェーダを使って音量を調整する。この調整では、ミキシングされた時に、ボーカルの音が聞こえやすくなると共に、楽器本体の音が大きい楽器の音量がボーカルとバランスするよう調整する。また、イコライザを調整して、各楽器の得意な音域を増幅し、不要な音域を減衰させることにより、各楽器同士の音域のすみ分けができバランスがよくなるようにする。さらに、ダイナミクスを調整して、音信号の音圧が上がり迫力が出てくるようにする。また、各演奏者が周りの音や自分の演奏がよく聞こえるようモニタースピーカの音量や配置位置を調整する。
特開平2-68597号公報 特許第3170596号公報
ヤマハ株式会社 PAビギナーズガイド バンド編[online],[平成27年9月15日検索],インターネット<http://www.yamahaproaudio.com/japan/ja/training_support/pa_guide_beginner/band_pa/>
 上記したように、従来のミキサでは、多数のインプットおよびアウトプットの端子が並列的に存在している。このため、利用者は、どの演奏者がどの楽器を演奏しているのか、および楽器毎にどのスピーカにどれだけの音量等がアサインされているのかを、ミキサの設定を見ても直感的に分かりづらかった。また、従来のミキサはいわゆるプロユースであり、ミキサの扱いに慣れていない初心者等のユーザにとってはミキサをセッティングすることが難しいという問題点があった。ここで、特許文献1には、演奏場内の楽器位置に応じた音場を再現するために使用されるパラメータを簡単な操作で所望の楽器位置に応じた音場を再現するようにした楽音パラメータ制御装置が開示されている。この楽音パラメータ制御装置では、演奏場に対応するパネルにタッチすることで楽器位置を指定し、指定した楽器位置に楽器アイコンを表示すると共に、指定した楽器位置情報を楽音パラメータ情報に変換するようにしている。特許文献1では、演奏場の前後方向の楽器位置に対応したリバーブ効果の付与を可能にしている。また、特許文献2には、ステージ上に複数の演奏パートをそれぞれ表す楽器プレイヤーアイコンを複数表示し、この楽器プレイヤーアイコンは楽器およびその楽器を演奏する演奏者の図柄とされていることが開示されている。しかしながら、いずれの文献においても、楽器と演奏者との対応付けや、楽器毎にスピーカにどれだけの音量が適用されるかについては、一切記載されていない。すなわち、ライブ会場におけるミキサをセッティングする現場では、音響エンジニアが演奏者毎に調整を行うことから、楽器と演奏者との対応付けが明確でない従来のミキサでは、当該対応付けを把握するために時間を要し、作業が非効率的になってしまう。このため、ミキサのセッティングスキルの低いユーザでは、ミキサのセッティングを行うことが困難になり、ミキサのセッティングスキルが高いユーザでも、ミキサのセッティングを効率的に行うことが難しいという問題点があった。
 そこで、本発明は、楽器と演奏者との対応付けを明確にすることができるプログラムを提供することを目的としている。
 上記目的を達成するために、本発明におけるプログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに、楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させる演奏者アイコン表示手順と、信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、入力チャンネルに対応させて、表示器に表示させる楽器アイコン表示手順と、演奏者アイコンと、楽器アイコンとを視覚的に関連付ける関連付け手順とを実行させるプログラムを記録することを最も主要な特徴としている。
 本発明におけるプログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに、ステージ情報を取得して表示器にステージを表示させるステージ表示手順と、ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得する位置情報取得手順と、表示器に表示されたステージ上であって、位置情報取得手順で取得した演奏者の位置情報に対応する位置に、演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別の楽器アイコンとをそれぞれ表示させると共に、位置情報取得手順で取得した各スピーカの位置情報に対応する位置に、スピーカアイコンを表示させるアイコン表示手順と、アイコン表示手順で表示された演奏者アイコンあるいは楽器アイコンとスピーカアイコンとの選択操作に基づいて、選択されたアイコンに対応する楽器種別が表わす楽器の演奏音の音信号を処理する信号処理手順とを実行させる処理装置用プログラムを記録することを特徴とする。本発明は、上記のように記録媒体として実施する他、システム、方法、装置、プログラム等、任意の態様で実施することができる。
実施形態にかかるプログラムが実行されるタブレット端末が接続されたミキサの構成を示す機能ブロック図である。 図1に示すミキサにおけるミキシング処理の構成を示す図である。 図1に示すミキサにおける入力チャンネルの構成の詳細を示す図である。 設定プログラムが実行されるタブレット端末の構成を示す機能ブロック図である。 設定プログラムが実行される際に表示されるキャスティングモードの画面を示す図である。 設定プログラムが実行される際に表示されるステージモードの画面を示す図である。 設定プログラムで実行されるキャスティングモード(その1)処理のフローチャートである。 設定プログラムで実行されるキャスティングモード(その2)処理のフローチャートである。 設定プログラムで実行される入力チャンネルの楽器種別の設定時の処理のフローチャートである。 設定プログラムで実行される入力チャンネルの調整ツマミ4jを操作時の処理のフローチャートである。 設定プログラムにおけるルールデータのデータ構造を示す図である。 設定プログラムにおけるバンドデータのデータ構造を示す図である。 設定プログラムが実行される際に表示されるライブラリAポップアップ画面を示す図である。 設定プログラムが実行される際に表示されるライブラリBポップアップ画面を示す図である。 設定プログラムにおけるchライブラリのデータ構造を示す図である。 入力チャンネルにおいてライブラリAを開く操作時の処理のフローチャートである。 入力チャンネルにおいてライブラリBを開く操作時の処理のフローチャートである。 設定プログラムで実行されるステージモード処理のフローチャートである。 タブレット端末のCPUの機能を示す構成図である。
 以下、本発明を実施するための形態を図面に基づいて具体的に説明する。まず、本実施形態の音信号処理装置用プログラム(以下「設定プログラム」という)が実行されるタブレット端末2が接続されたミキサ1の構成を図1に示す。図1に示すミキサ1は、CPU(Central Processing Unit)10、フラッシュメモリ11、RAM(Random Access Memory)12、その他I/O13、波形I/O14、信号処理部15(DSP:Digital Signal Processor)、表示器16、電動フェーダ17および操作子18を備え、これらを通信バス19により接続している。
 このうちCPU10は、ミキサ1の動作を統括制御する制御手段であり、フラッシュメモリ11に記憶された制御プログラムを実行することにより、波形I/O14における音信号の入出力および表示器16における表示の制御、電動フェーダ17および操作子18の操作に従ったパラメータの編集および信号処理部15における信号処理の制御といった処理を行う。フラッシュメモリ11は、CPU10が実行する制御プログラムおよびプリセット等を記憶する書き換え可能な不揮発性記憶手段である。RAM12は、CPU10が各種のデータを書き込み、および読み出しする揮発性記憶手段であり、CPU10のワークメモリおよびミキサ1のカレントデータを記憶するカレントメモリとしても使用される。
 その他I/O13は、種々の外部機器を接続して通信を行うためのインタフェースであり、図ではタブレット端末2が接続されている。タブレット端末2で本実施形態にかかる設定プログラムを実行することにより、ユーザは、そのタブレット端末2を用いて、リモートから、ミキサ1のカレントデータ等をセッティングできる。その他I/O13における通信に用いる規格は、イーサネット(登録商標)又はUSB(Universal Serial Bus)等、任意のものを採用することができ、有線無線も問わない。また、その他I/O13には、複数の外部機器を同時に接続することができ、外部メモリ又はパーソナルコンピュータ(PC)も接続することができる。PCで、タブレット端末2が実行する設定プログラムと同様の設定プログラムを実行して、ミキサ1のリモートセッティングを行うようにしてもよい。
 表示器16は、CPU10の制御に従って種々の情報を表示する表示手段であり、例えば液晶パネル(LCD)又は発光ダイオード(LED)によって構成できる。電動フェーダ17は、ミキサ1に入力された音信号の音量などのパラメータ値を調整するためにユーザが操作する操作子である。操作子18は、アッテネータ、イコライザ、ダイナミクスおよびフェーダ等のモジュールの各種のパラメータ値を調整するためにユーザが操作する操作子であり、例えば、キー、ボタン又はロータリーエンコーダ等である。波形I/O14は、信号処理部15で処理すべき音信号を、ミキサ1の外部から受け付け、また処理後の音信号を外部に出力するためのインタフェースである。波形I/O14は、複数の入力ポート20および複数の出力ポート24を備えている。各入力ポート20は、1つの音信号を外部から受け取り、信号処理部15に供給する。各出力ポート24は、信号処理部15からの1つの音信号を出力する。
 信号処理部15は、例えば、複数のDSPを含むDSP群として構成され、波形I/O14から供給される音信号にミキシング又はイコライジング等の信号処理を施し、信号処理後の音信号を再び波形I/O14に出力する機能を備える。その信号処理は、各種パラメータの現在値(カレントデータ)に基づいて制御される。そのカレントデータは、RAM12のカレントメモリの領域に記憶されており、カレントデータに含まれる種々のパラメータの値は、ユーザによる操作子18の操作に応じて、CPU10が変更する。なお、ミキサ1のカレントデータ等のセッティングは外部接続されたタブレット端末2を使用してユーザが行うことができるので、ミキサ1は、電動フェーダ17と操作子18のいずれか一方又はいずれも備えなくてもよい。
 次に、図2に、波形I/O14および信号処理部15により実現されるミキシング処理のブロック図を示す。なお、以降の説明ではチャンネルをchとして記載する。図2に示すように、信号処理部15は、入力ch21-n(n=1~20)、ミキシング用のバス22および出力ch23から構成され、一般的なミキサが備えている入力パッチおよび出力パッチは備えていない。入力ポート20からの音信号は入力ch21-nに供給される。例えば、20chある各入力ch21-nでは、供給された音信号に対してレベルや周波数特性を調整する信号処理を施し、信号処理後の音信号を、例えば6系統のバス22のうちの1又は複数系統のバスへ送出する。なお、ユーザは、その送出する音信号のレベルを、バス毎に個別に変更できる。各バス22は、複数の入力ch21-nの各々から入力される音信号をミキシングし、ミキシング結果の音信号を、そのバス22に対応する出力ch23へ送出する。例えば、6chの出力ch23の各々では、バス22から供給される音信号に対してヘッドアンプ、イコライザおよびコンプレッサ等の一連の処理ブロックでそれぞれ信号処理を施し、信号処理後の音信号を出力ポート24から送出する。
 次に、図3に、入力ch21-nの詳細構成を示す。図3に示すように、入力ch21-nには、入力ポート20からの音信号が入力され、バス22へ音信号を送る経路には、アッテネータ30、イコライザ31、ダイナミクス32、フェーダ33a~33fおよびchスイッチ34a~34fのそれぞれ異なる信号処理を行う各モジュールが縦続して設けられている。アッテネータ30は、入力信号のゲインを調整する処理を行うレベル制御器である。イコライザ31は、入力信号の周波数特性を調整する処理を行うイコライザであり、例えばHIGH、HIGH MID、LOW MIDおよびLOWの4バンドを備えている。ダイナミクス32は、音信号の入力レベルが閾値以上になると一定のレートで出力レベル(ゲイン)を小さくしてダイナミックレンジを圧縮する信号処理モジュールである。各入力ch21-nは、複数のフェーダ33a~33fおよび複数のchスイッチ34a~34fを含む。複数のフェーダ33a~33fは、複数のバス22に1対1で対応して設けられており、バス22に送る音信号のレベルをバス毎に調整している。複数のchスイッチ34a~34fは、複数のバス22に1対1で対応して設けられており、入力ch21-nのオン/オフをバス毎に行うスイッチである。なお、アッテネータ30、イコライザ31およびダイナミクス32が、入力ch21-n毎に1つ設けられている。すなわち、ユーザは、アッテネータ30、イコライザ31およびダイナミクス32を、入力ch21-n毎に調整し、バス22毎には調整しない。一方、フェーダ33a~33fおよびchスイッチ34a~34fは、バス22毎に調整される。
 図4に、タブレット端末2のハードウェア構成を示す。図4に示すタブレット端末2は、CPU40、フラッシュメモリ41、RAM42、外部I/O43、表示器44および操作子45を備え、これらを通信バス46により接続している。このうちCPU40は、タブレット端末2の動作を統括制御する制御手段であり、所定のオペレーションシステム上で、フラッシュメモリ41に記憶された本実施形態に係る設定プログラム等のアプリケーションプログラムを実行することにより、ミキサ1のリモートセッティングなどの、アプリケーションプログラムに応じた処理(演奏者アイコン表示手順,楽器アイコン表示手順,関連付け手順,ステージ表示手順,位置情報取得手順,アイコン表示手順および信号処理手順)を行う。フラッシュメモリ41は、CPU40が実行する各種プログラムやプリセット等のデータを記憶する書き換え可能な不揮発性記憶手段である。RAM42は、CPU40が各種のデータを書き込みおよび読み出しする揮発性記憶手段であり、CPU40のワークメモリとしても使用される。
 外部I/O43は、種々の外部機器に接続して通信を行うためのインタフェースである。タブレット端末2を用いたミキサ1のリモートセッティングは、この外部I/O43を介して行われる。外部I/O43における通信に用いる規格は、イーサネット(登録商標)又はUSB等、任意のものを採用することができ、有線無線も問わない。表示器44は、CPU40による制御の下で種々の情報を表示する表示手段である。表示器44は、タッチパネルを積層したLCDの表示器で構成され、ユーザの操作を受け付けるためのGUI(グラフィカルユーザインタフェース)画面を表示する。例えば、後述するキャスティングモードの画面3およびステージモードの画面4が表示される。操作子45は、タブレット端末2に対する操作を受け付けるためのものであり、種々のキー又はボタン等によって構成できる。
 本実施形態に係る設定プログラムを実行しているタブレット端末2で、ユーザが、キャスティングモードを選択すると、CPU40は、図5に示すキャスティングモードの画面3をタブレット端末2の表示器44に表示させる。設定プログラムの起動時のデフォルト画面が、キャスティングモードの画面3でもよい。タブレット端末2が接続されたミキサ1では、ステージ上に配置されたボーカル、楽器用のマイクからのケーブル、又は電子楽器からのケーブルを、入力ポート20に接続すると共に、ステージ上に配置されたメインスピーカおよびモニタースピーカからのケーブルをミキサ1の出力ポート24に接続しておく。なお、この明細書では特に断らない限りボーカルも楽器として扱うことにする。図5に示すようにキャスティングモードの画面3の上部には、バンド名表示部3a、バンド選択部3bおよびモード選択部3cが設けられている。バンド選択部3bをクリックすると、バンド選択画面(図示略)のウィンドウが開き、このバンド選択画面において、ミキサ1が備えられたステージを使用するバンドを選択する。「バンドA」のバンド名のバンドが選択された場合が図5に示されており、バンド名表示部3aに「バンドA」と表示される。モード選択部3cでは、キャスティングモードとステージモードのいずれかを選択でき、「Casting」の字が白抜きで表示されてキャスティングモードが選択されていることが図示されている。キャスティングモードの画面3の下部には、選択されたバンドを構成している演奏者であるメンバを表す演奏者アイコン(Pアイコン)3fがメンバ数だけ表示されている。Pアイコン3fは、演奏者の氏名(芸名)および顔写真や顔のイラストが表示されるカード(Pカード)とすることができる。図5の例では、「メンバA」、「メンバC」、「メンバF」および「メンバG」の4名のバンドメンバの各々に対応するPアイコン3fが表示される。また、画面3の右下に「newメンバ」と表示されたメンバ追加部3gのアイコンは、クリックするとメンバが追加されて追加されたメンバを表すPアイコン3fが画面3に追加表示される。
 キャスティングモードでは、バンドの各メンバに、各メンバが演奏する楽器の楽器種別を対応付ける処理を行うことができる。楽器種別は、例えば発音源の名称(具体的には楽器名又は演奏パート名)である。本実施形態では、ギターおよびバスドラム等の楽器名を楽器の種類として例示する。キャスティングモード処理を図7および図8に示すキャスティングモード処理のフローチャートで説明する。なお、ユーザは、キャスティングモード処理を起動するに先立ち、ステージ上に配置されたボーカル用および楽器用のマイク又は電子楽器からのケーブルを、ミキサ1の入力ポート20に接続すると共に、ステージ上に配置されたメインスピーカおよびモニタースピーカからのケーブルをミキサ1の出力ポート24に接続しておく。また、ミキサ1のその他I/O13にタブレット端末2を接続しておく。
 タブレット端末2において、本実施形態の設定プログラムが起動されて、モード選択部3cでキャスティングモードが選択されると、キャスティングモード処理がスタートする。なお、設定プログラムが起動された際に、デフォルトでキャスティングモード処理がスタートしてもよい。キャスティングモード処理はタブレット端末2のCPU40が実行する。ここでは、第1実施例である図7に示すキャスティングモード処理(その1)について説明する。キャスティングモード処理(その1)がスタートすると、CPU40は、ステップS10にてバンド名表示部3aに表示されているバンド名「バンドA」のメンバデータを読み出して、メンバデータに含まれる演奏者情報を取得する。この場合、「バンドA」のバンドが選択されており、選択可能なバンドのメンバのメンバデータを予めフラッシュメモリ41又は外部接続された外部メモリに保存しておく。メンバデータには、バンド名、バンドを構成しているメンバのメンバ数および各メンバ(演奏者)の演奏者情報が含まれている。演奏者情報は、各メンバのID(氏名(芸名)としてもよい)、そのメンバが演奏可能な楽器種別を表わす楽器情報、および、そのメンバを表すPアイコン3fに表示される顔写真又はイラストなどからなる情報が登録されている。CPU40は、ステップS11にてステップS10で取得した演奏者情報に基づいて、キャスティングモードの画面3において演奏者アイコンであるPアイコン3fを表示器44に表示させる(演奏者アイコン表示手順の一例)。「バンドA」のバンドが「メンバA」、「メンバC」、「メンバF」および「メンバG」の4名で構成されていることがメンバデータから取得され、この4名のメンバの各々のPアイコン3fがキャスティングモードの画面3に表示されている。メンバを表すPアイコン3fが画面3に表示しきれない時は、スクロール又はレイヤー切り替えで表示する。
 ステージ上において楽器を持つメンバが自分の楽器を演奏すると、その演奏音を表わす音信号が、当該楽器が接続されている入力ポート20に対応する入力ch21-nに供給される。特定の入力ch21-nに音信号が供給されたことをステップS12でCPU40が検出する。メンバの全員が自分の楽器を演奏した場合、当該楽器に対応する入力ch21-nのそれぞれにおいて音信号が供給されたことが検出される。ステップS13でCPU40は、ステップS12で音信号が検出された入力ch21-nに対応する楽器表示エリア3dを画面3に表示する。図5では、音信号が検出された入力ch21-1~ch21-6の各々の楽器表示エリア3dが表示されている。楽器表示エリア3dが画面3に表示しきれない時は、スクロール又はレイヤー切り替えで表示する。この明細書では特に断らない限りボーカルも楽器として扱うと共に、携帯用を含む楽器再生装置も楽器として扱うことにする。なお、携帯用を含む楽器再生装置は、ミキサ1のある入力ポート20に接続され、その入力ポート20に対応する入力ch21-nに音信号を供給することができる。ステップS14でCPU40は、音信号が検出された入力ch21-1~ch21-6において、各入力ch21-1~ch21-6に供給された音信号の波形分析を行い、各音信号の特徴量を算出する。次いで、ステップS15でCPU40は、相異なる楽器種別について事前に用意された参照用の複数の特徴量の各々と音信号の特徴量との類似度を表す指標(以下「可能性係数」)を、各楽器種別について算出する。この可能性係数の算出は、CPU40あるいは、ミキサ1の信号処理部15のDSPに行わせることができる。また、外部I/O43を介してタブレット端末2をネットワークに接続して、ネットワーク上のサーバに可能性係数の算出を行わせてもよい。
 ステップS16でCPU40は、入力ch21-nに入力された音信号について、楽器種別の候補(以下「種別候補」という)が推測されたか否かを判断する。具体的には、CPU40は、ステップS15で楽器種別毎に算出した可能性係数のうち、所定の閾値を上回る可能性係数の楽器種別を、入力ch21-nに入力された音信号の種別候補として推測する。種別候補が推測された場合(ステップS16のYes)、CPU40は、当該入力ch21-nに対応する楽器表示エリア3dにおいて、当該入力ch21-nに入力された音信号について推測された種別候補を表す楽器アイコン(Iアイコン)3eを算出された可能性係数の大きさに応じた態様で表示器44に表示させる(楽器アイコン表示手順の一例)。例えば、図示する入力ch21-1において「E guitar(エレキギター)」、「A guitar(アコースティックギター)」および「E bass(エレキベースギター)」の3つの種別候補が推測され、その順で可能性係数が大きい場合は、入力ch21-1に対応する楽器表示エリア3d内に最も可能性係数が大きい「E guitar」のIアイコン3eが最前面に、最も可能性係数の小さい「E bass」が最後面になるよう重ねて表示される。Iアイコン3eはその楽器を表すイラストの図柄のカード(Iカード)とすることができる。また、入力ch21-2に対応する楽器表示エリア3d内には、推測された種別候補の「M vocal(男性ボーカル)」と「F vocal(女性ボーカル)」との各Iアイコン3eがその順で表示される。入力ch21-3に対応する楽器表示エリア3d内には、推測された種別候補の「piano」と「organ」と各Iアイコン3eがその順で表示されている。Iアイコン3eの大きさ、光り具合、色、又は振動具合で可能性係数の大小を表わしてもよい。また、CPU40は、可能性係数の最も高いIアイコン3eを強調して表示するようにしてもよい。
 入力ch21-4に対応する楽器表示エリア3d内には、入力ch21-4の音信号から推測された種別候補の「Hi-Hat」のIアイコン3eが表示され、入力ch21-5に対応する楽器表示エリア3d内には、入力ch21-5の音信号から推測された種別候補の「Snare」のIアイコン3eが表示され、入力ch21-6に対応する楽器表示エリア3d内には、入力ch21-6の音信号から推測された種別候補の「Kick」のIアイコン3eが表示されている。入力ch21-4~入力ch21-6で推測された種別候補は、一般に、ドラムキットを構成することから、CPU40は、これらが1つのドラムキットと推測して、ドラムキットとして表示する。具体的には、そのドラムキットを表すドラムキット3hの楽器アイコンを表示し、その周囲に入力ch21-4、入力ch21-5および入力ch21-6の3つの楽器表示エリア3dを配置して、キットであることを示す円弧で接続する。
 ステップS16において、種別候補が推測されなかった場合、つまり所定の閾値を上回る可能性係数の楽器種別がない場合(ステップS16のNo)、ステップS18でCPU40は、入力ch21-nに対応する楽器表示エリア3d内に、楽器種別が不明であることを示すアイコン(例えば、「?」のアイコン)を表示器44に表示させる。ステップS17あるいはステップS18の処理が終了するとステップS19に進む。ステップS19でCPU40は表示器44を制御して、ステップS10で取得した演奏者情報と、推測された種別候補とに応じて、Pアイコン3fと、楽器表示エリア3dとの位置を調節して画面3に表示させる。具体的には、演奏者情報に含まれる楽器情報が表わす楽器種別と、推測された種別候補とが一致する場合は、CPU40は表示器44を制御して、当該演奏者情報に対応するPアイコン3fに、推測された種別候補のIアイコン3eが表示されている楽器表示エリア3dを接近させて表示させる。楽器情報が表わす楽器種別が同じメンバが2人以上いる場合(例えばメンバAとメンバBの楽器情報が表わす楽器種別「E guitar」が同じである場合)、メンバAのPアイコン3fの表示位置とメンバBのPアイコン3fの表示位置との中間地点に「E guitar」のIアイコン3eが表示されている楽器表示エリア3dを表示させること、又は、メンバAのPアイコン3fの表示位置とメンバBのPアイコン3fの表示位置との間を「E guitar」のIアイコン3eが表示されている楽器表示エリア3dが往来するように表示させることも可能である。
 次いで、ステップS20でCPU40は、楽器表示エリア3d内に表示されている複数のIアイコン3eのうちのいずれかと複数のPアイコン3fのうちのいずれかとを選択する操作がユーザにより行われたか否かを判断する。例えばIアイコン3eのいずれかをドラッグしてPアイコン3fのいずれかにドロップする[0]ことでIアイコン3eとPアイコン3fとを選択する操作(図中の矢印で示す操作)の有無をCPU40は判断する。
 ここで、複数のIアイコン3eのうちのいずれかと複数のPアイコン3fのうちのいずれかとを選択する操作がユーザにより行われていない場合(ステップS20のNo)は、ステップS12に戻り、次の入力ch21-nに対するステップS12からステップS20までの処理が再度行われる。ステップS12からステップS20までの処理が繰り返し行われることにより、各入力ch21-nに供給された音信号の音源の波形分析を行い、楽器種別を割り出すために可能性係数が全入力ch21について算出される。さらに、割り出された楽器に対応するIアイコン3eが、該当する入力ch21-nに対応する楽器表示エリア3d内に表示される。
 また、複数のIアイコン3eのうちのいずれかと複数のPアイコン3fのうちのいずれかとを選択する操作がユーザにより行われた場合(ステップS20のYes)は、ステップS21でCPU40は、選択されたIアイコン3eに対応する種別候補を、選択されたPアイコン3fに対応するメンバに当該メンバが演奏する楽器種別としてアサインする。具体的には、メンバにアサインされた楽器種別を当該メンバの演奏者情報の楽器情報に追加する。以上の処理により、選択されたPアイコン3fのメンバと、選択されたIアイコン3eの楽器種別と、選択されたIアイコン3eが表示されている楽器表示エリア3dに対応する入力ch21-nとが相互に対応付けられる。つまり、メンバと、当該メンバが演奏する楽器の楽器種別と、当該楽器の演奏音を表わす音信号が入力された入力ch21-nとが相互に対応付けられる。CPU40は、ミキサ1をリモート制御して、この入力ch21-nに、当該入力ch21-nに対応付けられた楽器種別に特有のch設定データを設定する。ここで、CPU40が入力ch21-nに設定するch設定データは、メンバの楽器種別のch設定データが既に有る場合は、そのch設定データであり、ない場合はch設定データの初期データであるが、その詳細は後述する。各入力ch21-nにch設定データは、その入力ch21-nのイコライザ31およびダイナミクス32等の各モジュールのパラメータセットを含む。
 ステップS22でCPU40は、表示器44を制御して、選択されたIアイコン3eとPアイコン3fとを視覚的に関連付ける(関連付け手順の一例)。「視覚的な関連付け」とは、Iアイコン3eとPアイコン3fとの間の対応関係をユーザが視覚的に把握できるようにIアイコン3eとPアイコン3fとの表示態様をCPU40が制御する処理を意味する。例えば、Iアイコン3eとPアイコン3fとを相互に接近、又は密着させることで両者間の対応関係を表現する処理が「視覚的な関連付け」の典型例である。具体的には、図5に示すように、選択されたIアイコン3eをPアイコン3fに密着させて表示させる。つまり、入力ch21-nに入力された音信号が表わす演奏音の楽器種別が、当該楽器種別が表わす楽器を演奏するメンバにアサインされたことが表示される。
 以上の処理が終了すると、ステップS23でCPU40は、キャスティングモードが終了されたか否かを判断する。ここで、Iアイコン3eの他の一つが選択されて、Pアイコン3fのいずれかにドロップされるなどの、Iアイコン3eとPアイコン3fとを再度選択する操作がユーザにより行われた(ステップS23のNo)場合は、ステップS21に戻り上記したステップS21およびステップS22の処理が繰り返される。ステップS21およびステップS22の処理を繰り返し行うことにより、バンドの全てのメンバに自分が演奏する楽器の楽器種別がアサインされると共に、その楽器種別が表す楽器の演奏音の音信号が供給される入力ch21-nに、その楽器種別のch設定データが設定されるようになる。また、モード選択部3cにおいて「Stage」ボタンがクリックされたり、設定プログラムが終了された場合(ステップS23のYes)は、キャスティングモード処理(その1)は終了する。
 上記説明したように、Iアイコン3eとPアイコン3fとを選択する操作は、ユーザが複数回行うことができる。ユーザは、Iアイコン3eとPアイコン3fとを選択する操作を、その入力ch21-nの音信号を聴くだけでなく、ステージ上にいるバンドのメンバや、楽器の演奏状況を実際に見ながら行うとよい。例えば、表示器44に画面3が表示されているとき、実際に、演奏者「メンバA」が楽器種別「E guitar」に応じた楽器を演奏していれば、ユーザは、入力ch21-1の楽器表示エリア3d内に表示されている「E guitar」のIアイコン3eと「メンバA」のPアイコン3fとを選択する。また、演奏者「メンバF」の楽器種別が、実際には「organ」であった場合は、ユーザは、入力ch21-3の楽器表示エリア3d内に表示されている「organ」のIアイコン3eと、「メンバF」のPアとを選択する。さらに、歌手である「メンバG」が、実際は女性であった場合は、入力ch21-2の楽器表示エリア3d内に表示されている「F vocal(女性ボーカル)」のIアイコン3eと「メンバG」のPアイコン3fとを選択する。そして、ユーザがPアイコン3fとIアイコン3eとを選択すると、CPU40は、当該Iアイコン3eの楽器種別と当該Iアイコン3eが表示されている楽器表示エリア3dの入力ch21-nとを対応付け、当該Iアイコン3eの楽器種別のch設定データを当該入力ch21-nに設定するとともに、図5に示すようにIアイコン3eがPアイコン3fに密着して表示されるよう表示器44を制御する。入力ch21-nと楽器種別とメンバとの対応付けは、ユーザが、Iアイコン3eとPアイコン3fとを選択したときに行われる。なお、楽器認識処理が上手くいかず、入力ch21-nの楽器表示エリア3dに、ユーザが指定したい楽器種別が表示されない場合は、ユーザは、設定プログラムで定義されている全楽器種別の中から所望の楽器種別を選択して、その楽器種別のIアイコン3eをその楽器表示エリア3dに追加することができる。つまり、ユーザは、各入力ch21-nに、推測された楽器種別に限定されない、任意の楽器種別を指定できる。
 このように、キャスティングモード処理(その1)では、楽器からのケーブルをミキサ1の入力ポート20に接続した状態で、その楽器を担当するメンバが演奏すると、その楽器の音信号が入力された入力ch21-nが検出されて、タブレット端末2では、入力された音信号が表す演奏音に対応した楽器の楽器種別のIアイコン3eが、検出された入力ch21-nの楽器表示エリア3dに表示される。そして、ユーザが、ステージ上のバンドのメンバと、メンバが演奏する楽器とを見ながら、画面上に表示されているその楽器アイコン(Iアイコン3e)と、そのメンバの演奏者アイコン(Pアイコン3f)とを選択することで、ミキサ1の入力ch21-nには、メンバが演奏する楽器の楽器種別のch設定データがリモート設定される。以上の説明から理解される通り、ステージ上のバンドのメンバと、メンバが演奏する楽器とを見ながら、画面上に表示されている楽器種別を表す楽器アイコン(Iアイコン3e)とメンバの演奏者アイコン(Pアイコン3f)とを選択する操作をすることで視覚的に関連付けることにより、入力ch21-nへのch設定データの設定を簡単に行うことができるようになる。
 次に、第2実施例である図8に示すキャスティングモード処理(その2)について説明する。キャスティングモード処理(その2)がスタートすると、CPU40は、ステップS40にてバンド名表示部3aに表示されているバンド名「バンドA」のメンバデータを読み出して、そのバンドを構成しているメンバの演奏者情報を取得する。CPU40は、ステップS41にてステップS40で取得した演奏者情報に基づいて、キャスティングモードの画面3において演奏者アイコンであるPアイコン3fを表示器44に表示させる(演奏者アイコン表示手順の一例)。「バンドA」のバンドが「メンバA」、「メンバC」、「メンバF」および「メンバG」の4名で構成されていることがメンバデータから取得され、この4名のメンバのPアイコン3fがキャスティングモードの画面3に表示されている。メンバを表すPアイコン3fが画面3に表示しきれない時は、スクロールやレイヤー切り替えで表示する。
 ここで、ユーザが、ステージ上の一人のメンバに自分の楽器を演奏させると共に、複数のPアイコン3fのうちの、演奏させたメンバに対応する1つのPアイコン3fを選択する操作をすると、ステップS42でCPU40は、選択されたPアイコン3fを検出する。次いで、ステップS43でCPU40は、音信号が入力された入力ch21-nが検出されたか否かを判断する。ここで、選択されたPアイコン3fのメンバが楽器を演奏した演奏音の音信号が入力された入力ch21-nが検出された場合(ステップS43のYes)は、ステップS44でCPU40が表示器44を制御して、音信号が入力された入力ch21-nに対応する楽器表示エリア3dを画面3に表示させる。また、音信号が入力された入力ch21-nが検出されない場合(ステップS43のNo)は、選択されたPアイコン3fのメンバが楽器を演奏して音信号が入力されるまで待機する。次に、ステップS45でCPU40は、ステップS42で検出されたPアイコン3fに対応するメンバと、ステップS43で音信号が入力された入力ch21-nとを対応付ける。ステップS46でCPU40は、入力ch21-nに入力された音信号の波形分析を行い、各音信号の特徴量を算出する。次いで、ステップS47でCPU40は、各楽器種別について可能性係数を算出する。この可能性係数の算出は、CPU40あるいは、ミキサ1の信号処理部15のDSPに行わせることができる。また、外部I/O43を介してタブレット端末2をネットワークに接続して、ネットワーク上のサーバに可能性係数の算出を行わせてもよい。
 そして、ステップS48でCPU40は、入力ch21-nに入力された音信号について、種別候補が推測されたか否かを判断する。この場合、CPU40は、ステップS47で楽器種別毎に算出した可能性係数のうち、所定の閾値を上回る可能性係数の楽器種別を、入力ch21-nに入力された音信号の種別候補として推測する。種別候補が推測された場合(ステップS48のYes)、ステップS49でCPU40は、当該入力ch21-nに対応する楽器表示エリア3dにおいて、当該入力ch21-nに入力された音信号について推測された種別候補の楽器アイコン(Iアイコン)3eを算出された可能性係数の大きさに応じた態様で表示器44に表示させる(楽器アイコン表示手順の一例)。例えば、入力ch21-1において「E guitar(エレキギター)」、「A guitar(アコースティックギター)」および「E bass(エレキベースギター)」の3つの種別候補が推測され、その順で可能性係数が大きい場合は、入力ch21-1に対応する楽器表示エリア3d内に最も可能性係数が大きい「E guitar」のIアイコン3eが最前面に、最も可能性係数の小さい「E bass」が最後面になるよう重ねて表示される。次いで、ステップS50でCPU40は、推測された複数の種別候補のうち可能性係数が最も大きい種別候補を、その入力ch21-nの楽器種別として特定し、この入力ch21-nに当該楽器種別のch設定データを設定する。Iアイコン3eの大きさ、光り具合、色、又は、振動具合等で可能性係数の大小を示してもよい。また、CPU40は、可能性係数の最も高いIアイコン3eを強調して表示するようにしてもよい。
 さらに、ステップS51でCPU40は、特定した楽器種別をステップS42で検出したPアイコン3fのメンバの楽器種別としてアサインし、当該アサインされた楽器種別を当該演奏者の演奏者情報の楽器情報に追加する。以上の処理により、メンバと当該メンバが演奏する楽器の楽器種別と当該楽器の演奏音を表わす音信号が入力される入力ch21-nとが相互に対応付けられる。つまり、メンバと、当該メンバが演奏する楽器の楽器種別と、当該楽器の演奏音を表わす音信号が入力された入力ch21-nとが相互に対応付けられる。種別候補が推測されなかった場合、つまり所定の閾値を上回る可能性係数の楽器種別がない場合(ステップS48のNo)、ステップS52でCPU40は、当該入力ch21-nに対応する楽器表示エリア3d内に、楽器が不明であることを示すアイコン(例えば、「?」のアイコン)を表示する。次いで、ステップS53でCPU40は、楽器種別のIアイコン3eと当該楽器種別がアサインされた演奏者のPアイコン3fと視覚的に関連付ける(関連付け手順の一例)。具体的には、当該Iアイコン3eと当該Pアイコン3fとが視覚的に関連付けされたことを示す態様で表示器44に表示させる。例えば、図5に示すように、選択されたIアイコン3eをPアイコン3fに密着させて表示する。
 以上の処理が終了すると、ステップS54でCPU40は、キャスティングモードが終了されたか否かを判断する。ここで、複数のPアイコン3fのうちの他のPアイコン3fが選択された場合(ステップS54のNo)は、ステップS42に戻り上記したステップS42からステップS53までの処理が再度行われる。ステップS42からステップS53までの処理を繰り返し行うことにより、バンドの全てのメンバに自分が演奏する楽器の楽器種別がアサインされると共に、その楽器種別が表す楽器の演奏音の音信号が供給される入力ch21-nに、アサインされた楽器種別のch設定データがセッティングされるようになる。ただし、ステップS42の処理を行う際には、選択されたPアイコン3fに対応するメンバだけに、自分の楽器を演奏させることが必要となる。設定プログラムが終了された場合(ステップS54のYes)は、キャスティングモード処理(その2)は終了する。
 このように、第2実施例のキャスティングモード処理(その2)では、ミキサ1に入力パッチが無く、楽器からの音信号が供給される入力ポート20と入力ch21-nとは1対1で対応している。楽器からのケーブルをミキサ1の入力ポート20に接続して、ステージ上のバンドのメンバの一人に対応するPアイコン3fを選択し、そのメンバに自分の楽器を演奏させる。これにより、その楽器の演奏音の音信号が入力された入力ch21-nに、その楽器の楽器種別に特有のch設定データがセッティングされる。また、入力ch21-nに入力された音信号の演奏音が表す楽器種別が、ユーザが選択したPアイコン3fに対応するメンバにアサインされるので、メンバとメンバが演奏する楽器の楽器種別と入力ch21-nとの対応付けを簡単に行うことができるようになる。
 次に、モード選択部3cにおいて「Stage」ボタンがタッチされると、図6に示すステージモードの画面4が表示器44に表示される。図6に示すようにステージモードの画面4の上部には、バンド名表示部4b、モード選択部4cが設けられている。バンド名表示部4bで表示されているバンド名「バンドA」は、キャスティングモードで選択されたバンド名であり、ユーザは、ステージモードでは別のバンド名を選択することはできない。モード選択部4cでは、キャスティングモードとステージモードとのいずれかを選択でき、「Stage」の字が白抜きで表示されてステージモードが選択されていることが図示されている。ステージモードの画面4の全体に選択されたバンドが演奏する実際のステージを模したステージ4aが表示され、ステージ4a上には選択されたバンドを構成しているメンバを表す演奏者アイコン(Pアイコン)4pと、メンバが演奏する楽器の楽器種別を表す楽器アイコン(Iアイコン)4dと、客席用のスピーカ(SP1,SP2)およびモニター用のスピーカ(SP3)のSPアイコン4eとが表示される。
 Iアイコン4dは、キャスティングモードで全メンバにアサインされた楽器種別の個数だけ表示される。当該楽器種別がアサインされたメンバのステージ4a上の位置、すなわち、楽器が配置されている位置にIアイコン4dが表示されている。また、Pアイコン4pはキャスティングモードで指定されたバンドのメンバ数だけ表示され、そのメンバのステージ4a上の位置に表示されている。この場合、楽器種別がメンバにアサインされている(メンバはその楽器を担当している)ことからIアイコン4dの表示位置はPアイコン4pの表示位置と同じとなる。また、Iアイコン4dは、楽器種別や楽器種別のイラストで表示されているカード(Iカード)とすることができ、Pアイコン4pは、メンバの氏名(芸名)、あるいは、顔写真や顔のイラストで表示されているカード(Pカード)とすることができる。図示する場合は、「E guitar」、「E bass」、「F vocal」、「piano」および「organ」の5つのIアイコン4dが、当該楽器種別がアサインされたメンバのPアイコン4pの上にそれぞれ密着して表示されている。この場合、「E guitar」が「メンバA」に、「E bass」が「メンバC」に、「F vocal」が「メンバG」にアサインされ、「piano」と「organ」の2つの楽器種別が「メンバF」にアサインされていることを表わす。ただし、2つ以上の楽器種別が一人のメンバにアサインされる場合は、Iアイコン4dは横に並べて表示される。
 また、各スピーカのSPアイコン4eは、それぞれ、ユーザが指定したステージ4a上の位置に表示されている。キャスティングモードで説明したように、Pアイコン4pのメンバと、Iアイコン4dの楽器種別と、その楽器種別の演奏音を表わす音信号が入力される入力ch21-nとは相互に対応している。例えば、メンバAの「E guitar」は入力ch21-1に、メンバCの「E bass」は入力ch21-7に、メンバGの「F vocal」はch21-2に対応しており、メンバFの「piano」と「organ」とは入力ch21-8と入力ch21-3にそれぞれ対応しており、ユーザがIアイコン4d又はPアイコン4pを選択することは、1つの入力ch21-nを選択することに対応する。この設定プログラムでは、Iアイコン4dで1つの入力ch21-nが選択できるので、ユーザは、入力ch21-nを把握しなくても、パラメータの設定を行える。
 画面4の右側には、入力チャンネルによる信号処理に関する操作アイコン(調整ツマミ4h~4k,スイッチ4s)と、調整される入力ch21-nに対応付けられた楽器種別のIアイコン4dとメンバのPアイコン4pを表示するメンバ選択表示部4mと、音信号の送り先のスピーカのSPアイコンを表示するスピーカ選択表示部4nとが表示される。調整ツマミ4h~4jは、1つの入力ch21-nの音信号の特性を調整する。調整ツマミ4kは、調整ツマミ4h~4jによる調整後の音信号を個別のスピーカに送って放音する音量を調整する。スイッチ4sは、chスイッチ34a~34fの各々について、オン/オフを切り換える。画面4のステージ4a上において、ハッチングを施して示すように、「メンバA」のPアイコン4pおよび「E guitar」のIアイコン4dと、「SP3」のSPアイコン4eとがユーザにより選択されると、選択された「メンバA」のPアイコン4pおよび「E guitar」のIアイコン4dとがメンバ選択表示部4mに表示され、「SP3」のSPアイコン4eがスピーカ選択表示部4nに表示される。なお、Pアイコン4pとIアイコン4dとのいずれかをユーザが選択すると、視覚的に関連付けられている他方も選択される。ユーザが「メンバA」のPアイコン4p又は「E guitar」のIアイコン4dを選択すると、CPU40は、対応する入力ch21-1に設定されたch設定データを選択し、そのch設定データに含まれるパラメータの値を調整ツマミの4h~4kの各ツマミ位置およびスイッチ4sのオン/オフ状態として表示する。Pアイコン4pとIアイコン4dとのいずれかをユーザが選択すると、CPU40は、図9に示す処理をスタートする。
 まず、ステップS100でCPU40は、入力ch21-nに対応付けられた楽器種別(音源種別)をレジスタSS-nに設定する。以下、レジスタSS-nに設定された楽器種別を「楽器種別SS-n」と便宜的に表記する。次いで、ステップS101でCPU40は、n番目の入力ポートから入力ch21-nに供給される音信号を、継続的に、楽器種別SS-nに応じた後述するルールでレベル判定してゲインファインダ4qに表示する。ゲインファインダ4qには、「ゲインを上げた方がよい」又は「下げた方がよい」の判定結果が表示され、ユーザのゲイン調整をガイドする。画面4上のゲインの調整ツマミ4hの左側に配置されたゲインファインダ4qは、2個の三角形を縦に並べ頂点を向き合わせた形状である。CPU40は、ゲインを上げた方が良い場合は、下側の三角形を点灯し、下げた方が良い場合は、上側の三角形を点灯する。ゲインファインダ4qでは、例えば、レベルが急激に変化する演奏音の場合は、音信号のレベルが低くなるようガイドし、急激な変化の少ない演奏音の場合は、音信号のレベルが高くなるようガイドする。すなわち、楽器種別SS-nに応じて、どのくらいのレベルが適正かを判断して、基準レベルを設定し、音信号のレベルがその基準レベルになるようガイドしている。図では、上側の逆三角形が点灯されており、ゲインを下げるように指示している。ステップS101のゲインファインダ4qの表示処理は、画面4が表示されている間継続するが、その処理が終了すると、入力ch21-nに楽器種別SS-nを設定する処理は終了する。
 例えば、「メンバA」のPアイコン4pおよび「E guitar」のIアイコン4dと、「SP3」のSPアイコン4eとをユーザが選択した場合、ユーザは、操作アイコンの各調整ツマミ4h~4kを操作することにより、メンバAの「E guitar」の音信号が供給される入力ch21-n(図6では入力ch21-1)のch設定データに含まれる各種パラメータ値を調整できる。ユーザは、アッテネータ30のゲインを、ゲインファインダ4qのガイドを見ながら調整ツマミ4hで調整できる。ユーザは、イコライザ31の周波数特性を調整ツマミ4iで調整できる。ユーザは、ダイナミクス32の特性を、調整ツマミ4jにより調整できる。ユーザは、フェーダ33a~33fのゲインを調整ツマミ4kにより個別に調整することができる。そして、ユーザが、調整ツマミ4h~4kを操作した時に、CPU40は、その操作(値変更指示)を検出して、図10に示す入力ch21-nの調整ツマミ4h~4kの操作に応じた信号処理をスタートする。まず、ステップS80でCPU40は、入力ch21-nの調整ツマミ4h~4kで検出された操作量xをレジスタに設定する。次いで、ステップS81で、CPU40は、その操作量xに応じて、入力ch21-nの1又は複数のパラメータを、楽器種別SS-nに応じたルールで変更する(調整手順の一例)。ステップS81の処理が終了すると、入力ch21-nの調整ツマミ4h~4jの操作に応じた信号処理は終了する。
 ステップS101およびステップS81のルールは、図11に示すデータ構造のルールデータ6としてタブレット端末2のフラッシュメモリ41に予め保存されている。ルールとは、ユーザが指定するパラメータが楽器種別SS-nに適したものとなるよう、ユーザをガイドし、又は、複数のパラメータ値のバランスを調整するルールであり、楽器種別毎に用意されている。例えば、入力ch21-nに入力した音信号のレベルを、ユーザが信号処理に適したレベルに調整できるようガイドするルール、又は、入力ch21-nにおけるイコライザ31又はダイナミクス32の多数のパラメータ値のパラメータ間のバランスを規定するルールである。ルールデータ6は、図11に例示されるように、「vocal用ルール」、「E guitar用ルール」、「A guitar用ルール」、「E bass用ルール」、「organ用ルール」、「piano用ルール」、「brass用ルール」および「strings用ルール」など楽器種別毎に用意され、ユーザは、楽器種別SS-nに応じたルールでパラメータを設定できる。
 画面4には、イコライザ31を調整する調整ツマミ4iとダイナミクス32を調整する調整ツマミ4jとが表示されており、ユーザが調整ツマミ4i又は4jを操作すると、CPU40は、そのモジュールの複数のパラメータ値を、所定のバランスを持ちつつ変更する。例えば、調整ツマミ4iおよび4jの調整範囲(回転範囲)の中に複数の特定位置(特定角度)を設け、その各特定位置に異なるパラメータ値のセットを割り当てる。そして、調整ツマミ4iおよび4jが各特定位置のときは、モジュールに対して、割り当てられたセットのパラメータが適用され、2つの特定位置の間のときは、モジュールに対して、その2つの特定位置の2セットのパラメータ値間でモーフィング(直線補間)されたパラメータ値が適用されるようにする。これにより、調整ツマミ4iで楽器種別SS-nに適したバランスでイコライザ31の複数のパラメータ値を連動して設定でき、調整ツマミ4jで楽器種別SS-nに適したバランスでダイナミクス32の複数のパラメータ値を連動して設定できる。アッテネータ30に関しては、ゲインファインダ4qを参照しながらユーザの操作した調整ツマミ4hの位置に応じて、1つのパラメータ(ゲイン)の値が調整される。なお、各バンドデータには、複数の各メンバのch設定データが、そのメンバが担当する楽器種別の個数だけ含まれている。バンドデータを用いたミキサ1のミキシング処理で、あるメンバが、過去にある楽器種別に対応する楽器を演奏していれば、そのバンドデータには、その際に使用されたch設定データが含まれる。逆に、あるメンバに初めてある楽器種別をアサインした時には、当該楽器種別のch設定データがないことから、その楽器種別に対応する音信号が入力される入力ch21-nには、ch設定データとして所定の初期データが設定される。この初期データは、楽器種別に共通な任意のデータとされる。例えば、ダイナミクス32においてはレベルの時間変化を圧縮しないパラメータ値が、イコライザ31においてはフラットな周波数特性となるパラメータ値が、ゲインにおいてはゼロに絞ったデータ(-∞デシベル)が、初期データとして入力ch21-nに設定される。このとき、その入力ch21-nには、楽器種別が対応付けられており、ユーザは、その楽器種別に応じたルールを用いて、そのch設定データの各パラメータ値を調整する。
 画面4において、ユーザが、調整ツマミ4kを操作すると、CPU40は、選択されている入力ch21-n(この場合は「メンバA」および「E Guitar」に対応するチャンネル)から選択されているスピーカ(この場合は「SP3」)への経路のフェーダ(33a~33fのうちの1つ)のゲインの値を、その調整ツマミ4kの位置に応じて変更する。また、ユーザがスイッチ4sを選択する操作に応じて、CPU40は、同経路のchスイッチ(34a~34fのうちの1つ)の状態を、オンとオフの間で反転する(トグル)。入力ch21-nのイコライザ31およびダイナミクス32により特性が調整された音信号は、複数の経路の複数のスピーカのうちの、chスイッチ34a~34fのいずれかがオンされた経路のスピーカに供給される。当該音信号は、フェーダ33a~33fで調整されたレベルで供給される。
 このように、図6の画面4では、ユーザは、「メンバA」が演奏した「E guitar」の演奏音の特性をその楽器種別に応じたルールで調整できる。また、その調整後の音信号をモニター用のスピーカ「SP3」へ供給か否か、および、その供給する際の音量を調整できる。ステージモードの画面4では、ユーザが、同じメンバ又は他のメンバの他のIアイコン4dを選択すると、その楽器種別の演奏音の特性を、その楽器種別に応じたルールで調整することができる。また、ユーザが、他のSPアイコン4cを選択すると、特性を調整した後の音信号の他のスピーカへの供給を制御できる。調整されるパラメータは、ミキサ1のカレントメモリのカレントデータ中のパラメータである。
 ステージモードの画面4の下部には、ストアボタン4gと、「1」から「4」のシーン番号の各々に対応したシーン選択ボタン4fとが表示される。ユーザが、ストアボタン4gと1つのシーン選択ボタン4fとをクリックすると(保存指示)、CPU40は、カレントメモリのカレントデータを、そのシーン選択ボタン4fをクリックすることで選択されたシーン番号のシーンデータとして保存する(保存手順の一例)。カレントデータは、調整ツマミ4h~4kおよびスイッチ4sで調整された複数の各入力ch21-nのch設定データを含む。図12に示されるように、各バンドデータ5は、カレントデータと複数のシーンデータとを含む。複数のシーンデータ1~4の各々は、シーン1~4の各々に対応するデータである。ユーザが、1つのシーン選択ボタン4fをクリックすると、CPU40は、クリックされたシーン選択ボタン4fに対応するシーン番号のシーンデータを読み出し、ミキサ1のカレントメモリに書き込んで、シーンデータに対応したシーンが再現されるようにミキサ1をリモート設定する。
 図12には、ユーザの保存指示に応じてミキサ1のフラッシュメモリ11(およびタブレット端末2)に格納された4つのバンドデータ5を示す。各バンドデータ5は類似のデータ構造であり、ユーザにより選択されたバンドデータ5がミキサ1のRAM42に読み込まれ、ミキサ1の制御に使用される。カレントデータとシーンデータ1~4との各々は、ヘッダと、各メンバに対応する楽器種別のch設定データと、各スピーカのch設定データとから構成される。ヘッダには、バンドのメンバ数と、そのメンバ数分の各メンバの演奏者情報とが含まれている。演奏者情報は、各メンバのID(名前でもよい)、そのメンバの楽器情報、および、そのメンバを表すPアイコン3fに表示される顔写真又はイラストなどが含まれる。また、各楽器種別のch設定データは、上述した通り、入力ch21-nのイコライザ31およびダイナミクス32等の各モジュールに設定されるパラメータのセットである。各スピーカのch設定データは、1つの入力ch21-nの複数のモジュールに設定されるパラメータのセットである。バンドデータ5に含まれる各楽器種別のch設定データは、ヘッダで定義されたバンドの1のメンバの1の楽器種別に対応しており、上述したPアイコン3fとIアイコン3eとの視覚的な関連付け処理により、ミキサ1の1つの入力ch21-1に設定される。図12では、入力ch21-nにch設定データとして、「メンバA E guitar」、「メンバA M vocal」、「メンバC E bass」、「メンバF organ」、「メンバF piano」および「メンバG F vocal」などが用意されている。ここでは、カレントデータおよびシーンデータ1~4の各々でメンバ構成や楽器構成が異なっている可能性があるので、カレントデータおよびシーンデータ1~4の各々にヘッダが用意されている。
 また、画面4の下部には、「A」および「B」の2つのライブラリボタン4rがあり、ユーザが、ライブラリボタン4rの「A」をクリックすると、図13のライブラリA画面8が、ライブラリボタン4rの「B」をクリックすると、図14のライブラリB画面9が、それぞれタブレット端末2の表示器44にポップアップ表示される。図15のchライブラリ7は、各バンドデータ5内に個別に用意してもよく、あるいは、chライブラリ7を1つだけ用意し、それを複数のバンドデータで共用してもよい。chライブラリ7のデータ構造例を図15に示す。chライブラリ7は、例えば、「プリセット1 vocal用」、「プリセット2 piano用」、「プリセット3 vocal用」、「プリセット4 E guitar用」、「プリセット5 E guitar用」、「プリセット6 E bass用」、「プリセット7 vocal用」、「プリセット8 E guitar用」および「プリセット9 E bass用」の各々に対応したch設定データ(プリセット)を含む。
 ユーザが、chライブラリ7のプリセット番号を指定して、カレントメモリの「メンバA E guitar」のch設定データの保存を指示すると(保存指示)、そのch設定データが、指定されたプリセット番号のch設定データとして保存される。その際、その保存されるch設定データには、属性として「E guitar」が付与される。ユーザが、「メンバA」および「E guitar」に対応付けられた入力ch21-1について「A」のボタン4rをクリックした場合、ライブラリA画面8が表示される。ライブラリA画面8には、chライブラリ7の中の「E guitar」の属性を有するch設定データだけが選択肢としてリストとして並べられた画像である。
 図6の入力ch21-n(ここでは「メンバA E guitar」に対応する入力ch21-1)が選択されている画面4で、ユーザが、「A」のボタン4rをクリックすると、CPU40は、図16の処理を実行して、図16に示すライブラリA画面8を表示器44に表示させる。ライブラリボタン4r「A」のクリックが検出されると、CPU40は、まず、ステップS30で、chライブラリ7の中から楽器種別SS-1と同じ又は類似する楽器種別のch設定データを抽出する(選別手順の一例)。次いで、ステップS31で、CPU40は、ステップS30で抽出されたch設定データのリストを含むライブラリA画面8を表示器44にポップアップ表示させる。ステップS31の処理が終了すると、入力ch21-nにおいてライブラリA画面8を表示させる処理は終了する。
 ここでは、画面4で「メンバA」および「E guitar」に対応付けられた入力ch21-1が選択されていたので、ライブラリA画面8には、「E guitar」の属性(楽器種別)のプリセットのリストが表示される。そのリストの表示は、ユーザが各プリセットに付与したプリセット名を表示する欄8aと、各プリセットに付与したコメントを表示する欄8bとを含む。そのリストには、その入力ch21-1の楽器「E guitar」と同じ属性を有するプリセットが表示される。すなわち、「E guitar」の属性を有するプリセット4,5,8および9がプリセット名欄8aに表示される。なお、表示されるコメントは、「プリセット4」は「'15/06ライブ用」、「プリセット5」は「アナログCOMP使用」、「プリセット8」は「ピックアップA」である。「プリセット8」の欄8aと欄8bのハッチングは、そのプリセットが選択されていることを示す。プリセットが選択された状態でユーザが「Store」8cをクリックすると(保存指示)、CPU40は、図12のカレントの「メンバA E guitar」の入力ch21-1のch設定データに「E guitar」の属性を付与し、「プリセット8」としてchライブラリ7に保存する。また、ユーザが、「Recall」8dをクリックすると(呼出指示)、CPU40は、chライブラリ7から「プリセット8」のch設定データを読み出して(呼出手順の一例)、そのch設定データをカレントの「メンバA」にアサインされた「E guitar」の入力ch21-1に設定する。ユーザが、「Exit」8eをクリックすると、CPU40は、表示中のライブラリA画面8を表示器44に閉じさせる。
 図6の入力ch21-n(ここでは「メンバA」にアサインされた「E guitar」の入力ch21-1)が選択されている画面4で、ユーザが、「B」のボタン4rをクリックすると、CPU40が、図17の処理を実行して、図17に示すライブラリB画面9を表示器44に表示させる。すなわち、ライブラリボタン4r「B」のクリックが検出されると、CPU40は、まず、ステップS90で、複数のバンドデータのシーンデータ1~4の中から楽器種別SS-nと同じ楽器種別に対応するch設定データをプリセットとして抽出する(選別手順の一例)。次いで、ステップS41で、CPU40は、ステップS90で抽出されたch設定データのリスト表示を含むライブラリB画面9を表示器44にポップアップ表示させる。ステップS91の処理が終了すると、入力ch21-nにおいてライブラリBを開く操作時の処理は終了する。
 ここでは、もとの画面4で「メンバA」および「E guitar」に対応付けられた入力ch21-1が選択されていたので、ライブラリB画面8には、「E guitar」の楽器種別SS-1のプリセット(ch設定データ)のリストが表示される。そのリストの表示は、ch設定データを抽出したソース(どのバンドデータのどのメンバのシーンデータか)を表示するデータソース欄9aと、当該シーンデータのシーンにユーザが付与したシーン名などのコメントを表示する欄9bとを含む。表示されるコメントは、例えば、ソース「バンドB シーン2 メンバV」のプリセットは「Live A」、「バンドB シーン2 メンバW」は「Live B」、「バンドC シーン1 メンバD」は「opening」、「バンドC シーン2 メンバD」は「ending」、「バンドC シーン4 メンバD」は「encore」である。ここでは、リストの表示すべきプリセットが5より多いため、ユーザが、スクロールバー9cのつまみを上下に動かすことによりリストがスクロールされて、隠れている他のプリセットが表示される。ユーザが、リストのいずれかのプリセットを選択して「Recall」9dをクリックすると(呼出指示)、CPU40は、選択されたプリセット(ch設定データ)を、そのデータソースのバンドデータ5から読み出して(呼出手順の一例)、そのch設定データをカレントの「メンバA」にアサインされている「E guitar」の入力ch21-1に設定する。ユーザが、「Exit」9eをクリックすると、CPU40は、表示中のライブラリB画面8を閉じる。バンドデータ5のカレントデータおよびシーンデータ1~4の各ch設定データには、バンドデータのヘッダで定義された複数のメンバのいずれかが演奏可能な1種類の楽器種別が対応している。そこで、ライブラリBでは、各入力ch21-nに対して、その入力ch21-nで対応付けられた楽器種別と同じ楽器種別のプリセットを、複数のバンドデータ5からリコールできる。これにより、他のバンドで同じ楽器種別を担当しているメンバのch設定データを試すことができる。
 以上説明したステージモードの画面4では、ユーザは、各入力ch21-nのch設定データのパラメータを、その入力ch21-nに対応付けられている楽器種別に応じたルールで調整でき、また、保存されている複数のch設定データの中から、同じルールで調整されたch設定データを各入力ch21-nに呼び出すことができるようになっている。
 図18にステージモード処理全体のフローチャートを示す。図18に示すステージモード処理は、キャスティングモードの画面3においてモード選択部3cの「Stage」ボタンがクリックされるとスタートする。ステップS60でCPU40は、キャスティングモードで選択されたバンドが演奏するステージの奥行きや大きさなどのステージ情報、バンドを構成する各メンバの演奏者情報、ステージ上のメンバの位置である演奏者位置情報、メンバが演奏する楽器の楽器情報、客席用やモニター用などのスピーカ情報、および、スピーカの位置であるスピーカ位置情報を取得する(位置情報取得手順の一例)。次に、ステップS61でCPU40は表示器44を制御して、ステップS60で取得した演奏者情報、演奏者位置情報および楽器情報に基づいて、各メンバのPアイコン4pと、当該各メンバにアサインされた楽器種別のIアイコン4dと、スピーカアイコン4eとをステップS60で取得したステージ情報に応じたステージ4a上に表示させる(ステージ表示手順およびアイコン表示手順の一例)。具体的には、CPU40は、バンドの「メンバA」、「メンバC」、「メンバF」および「メンバG」のそれぞれ4つのPアイコン4pと、これらの各メンバにアサインされた「E guitar」、「E bass」、「F vocal」、「piano」および「organ」の5つのIアイコン4dとを視覚的に関連付けされたことを示す表示態様(例えばIアイコン4dをPアイコン4pの上に密着させる態様)で表示器44に表示させる。また、CPU40は、スピーカ情報およびスピーカ位置情報に基づいて、客席用のスピーカ(SP1およびSP2)およびモニター用のスピーカ(SP3)のスピーカアイコン4eを表示させる。バンドの各メンバにアサインされた楽器種別のIアイコン4dと各スピーカのSPアイコン4eとは、実際のステージ上の位置に対応する画面4のステージ4a上の位置に表示される。
 ステップS62でCPU40は、ステージ4a上において、Iアイコン4dおよびPアイコン4pの位置あるいはスピーカアイコン4eの位置を変更する操作(例えばアイコンをドラッグして他の位置に動かす操作)がユーザにより行われたか否かを判断する。ステージ4a上においてIアイコン4dおよびPアイコン4pの位置あるいはスピーカアイコン4eの位置を変更する操作がされた場合(ステップS62のYes)は、その変更に応じて演奏者位置情報あるいはスピーカ位置情報が更新(ステップS63)され、ステップS64でCPU40は、更新された演奏者位置情報あるいはスピーカ位置情報に応じてPアイコン4pおよびIアイコン4d、あるいは、SPアイコン4eが表示されるように表示器44を制御する。Iアイコン4dおよびPアイコン4pの位置あるいはスピーカアイコン4eの位置を変更する操作がされない場合(ステップS62のNo)、あるいは、ステップS64の処理が終了した場合に、視覚的に関連付けられた1組のIアイコン4dおよびPアイコン4pと、1つのSPアイコン4eとがユーザにより選択される(又は、選択に変更があった場合は、更新する)と、ステップS65でCPU40は、選択されたIアイコン4dおよびPアイコン4pとSPアイコン4eとにハッチングを施して表示器44に表示させる。選択されたIアイコン4dおよびPアイコン4pはメンバ選択表示部4mに表示され、選択されたSPアイコン4eはスピーカ選択表示部4nに表示される。ステップS66でCPU40は、選択されたIアイコン4dに対応する楽器種別に、キャスティングモード処理で対応付けられた入力ch21-nから、選択されたSPアイコン4eのスピーカへ出力する出力ch23の音量を調節する調整ツマミ4kを表示器44に表示させる。ステップS67でCPU40は、選択されたIアイコン4dに対応付けられた入力ch21-nにおけるエフェクタ(アッテネータ30、イコライザ31およびダイナミクス32)のパラメータ操作アイコン(調整ツマミ4h~4j)を表示器44に表示させる。
 ステップS68でCPU40は、画面4上において調整ツマミ4h~4kの値が変更されたか否かを判断する。調整ツマミ4h~4kが操作された場合(ステップS68のYes)は、ステップS69でCPU40は、調整ツマミ4h~4kの操作に応じて変更されたパラメータ値でカレントメモリ上のカレントデータを更新して、変更を反映させる(信号処理手順の一例)。調整ツマミ4h~4kが操作されない場合(ステップS68のNo)、又は、ステップS69の処理が終了した場合は、ステップS70でCPU40は、ステージモードが終了されたか否かを判断する。モード選択部3cにおいてユーザにより「Casting」ボタンがクリックされた、又は、設定プログラムが終了された場合(ステップS70のYes)は、ステージモード処理は終了する。また、上記したステージモードにおいて何らかの操作が行われた場合(ステップS70のNo)は、ステップS62に戻りステップS62からステップS69までの処理が再度行われる。ステップS62からステップS69までの処理が繰り返し行われることにより、バンドの全てのメンバにおける演奏音が各スピーカ(SP1,SP2およびSP3)から放音される際の音質および音量を調整することができる。この場合、一人のメンバが複数の楽器を演奏する場合は、そのメンバに複数の楽器種別がキャスティングモード処理によりアサインされる。例えば、ステージモードの画面4において「piano」と「organ」の2つの楽器種別は「メンバF」にアサインされる。「piano」と「organ」との各々に対応するIアイコン4dが重ねて表示されており、ステップS65で2つのIアイコン4dを順次選択することにより、メンバFが2つの楽器種別に対応する楽器を演奏した際のそれぞれの演奏音(音信号)の音質および音量を調整することができる。以上説明したステージモードの画面4では、ユーザは、画面4でIアイコン4dを見るだけでどのメンバが演奏する楽器なのか分かり、メンバが演奏する楽器の演奏音の音質や音量を簡単に調整することができる。
 以上の説明から理解される通り、設定プログラムを実行するタブレット端末2が接続されるミキサ1は、入力パッチを備えていないことから、入力ポートと入力ch21-nとは1対1で対応している。そこで、楽器からのケーブルをミキサの入力ポートに接続して、その楽器をメンバが演奏することで、その入力ポートに対応する入力ch21-nにその楽器の複数の種別候補が対応付けられる。そして、当該入力ch21-nには、複数の種別候補から特定された楽器種別に特有のch設定データがセッティングされる。ステージ上のバンドのメンバと、メンバが演奏する楽器を見ながら、画面上に表示されている楽器種別を表す楽器アイコン(Iアイコン4d)を、メンバの演奏者アイコン(Pアイコン4p)にドラッグ&ドロップなどの操作に応じて視覚的に関連付けることにより、メンバと楽器種別と入力ch21-nとの対応付けを簡単に行うことができる。
 バンドは、メンバが決まっているので、同じメンバ構成および同じ楽器構成で、本番および練習の演奏を繰り返し行う。本実施形態に係る設定プログラムを起動したタブレット端末2では、バンドに新たなメンバが加わった場合、又は既存のメンバが新たな楽器を演奏する場合、そのメンバが演奏する楽器の音信号が入力する入力ch21-nにch設定データとして所定の初期データを設定し、ユーザは、その各パラメータを、その楽器種別に応じたルールで調整する。そして、調整後のch設定データは、バンドデータ内に保存される。これにより、次回に、そのメンバがその楽器を演奏する時は、保存されたバンドデータを読み出し、そのメンバのその楽器の音信号が入力される入力ch21-nにそのch設定データを設定することができる。
 また、音信号が表わす演奏音の種別候補が推測された時に、演奏者情報を参照して、推測された種別候補が表す楽器を演奏するメンバが一人である場合は、当該メンバに推測された種別候補の楽器アイコン(Iアイコン4d)を当該メンバの演奏者アイコン(Pアイコン4p)に自動的に視覚的な関連付けをすると共に、当該メンバにアサインされる楽器種別として当該種別候補を特定するようにしてもよい。また、アサインされた楽器種別を表す楽器情報を、そのメンバの演奏者情報に追加するようにしたので、キャスティングモードを初めて立ち上げた時に、メンバの演奏者情報に何の楽器が演奏できるかという情報がなくても、アサインされた楽器種別の楽器情報を演奏者情報に追加していくことで、演奏者情報にその楽器種別に対応する楽器を演奏できるという情報が設定されていくようになる。バンドは、本番の演奏を行うステージを、本番の演奏に備える練習で複数回使用することが一般的である。初めてステージを使用して演奏する際には、本発明の設定プログラムをタブレット端末2で起動して、バンドの各メンバが演奏する楽器の楽器種別に対応するch設定データをミキサにセッティングしていく。このセッティングしたch設定データは、タブレット端末2の内蔵メモリや外部接続されたメモリに保存することができ、次回にステージを使用する時は、保存されたバンドデータを読み出すことで、ミキサへのセッティングを完了することができる。また、キャスティングモードを立ち上げた際に、バンドを組むメンバの全員が揃っていない場合は、キャスティングモードではその時に不在のメンバも表示されるが、キャスティングモードで楽器種別がアサインされないメンバの演奏者アイコンには、楽器アイコンが表示されないことからステージモードでは、不在のメンバは表示されない。
 ステージモードにおいて、音量調整した楽器アイコン(Iアイコン4d)を、音量に応じた大きさで表示して、全体の音量バランスを把握しやすくしてもよい。この場合、客席向けのスピーカ(SP1およびSP2)から放音される楽器の音量に応じて、その楽器に対応する楽器アイコンの大きさを変える。また、楽器アイコンとスピーカアイコンとを選択する時に、先にスピーカアイコンを選択した時は、そのスピーカアイコンに対応するスピーカから出力される演奏音の音量に応じて、当該楽器アイコンの大きさを変え、先に楽器アイコンを選択した時は、当該楽器アイコンに対応する楽器種別が表わす楽器の演奏音が出力されるスピーカに対応するスピーカアイコンの大きさを音量に応じて変えるようにしてもよい。また、楽器アイコンとスピーカアイコンとを選択した時に、楽器アイコンあるいはスピーカアイコンの大きさを変える操作に応じて、音量が調整されるようにしてもよい。また、ステージモードでは携帯用を含む楽音再生装置から入力されるバックグランドミュージックを表すBGMアイコンを表示して、BGMアイコンとBGMを流すスピーカに対応するSPアイコンとを選択して、BGMの音量を調整することができる。さらに、ステージモードの画面において、表示されたステージ4aの大きさを変えることで、リバーブの深さを変えるようにしても良い。この場合、ステージ4aの大きさは、画面にタッチされた複数本の指の間隔に応じて表示されたステージ4aの大きさを変えることができ、例えば、タッチしている指間の間隔が広がった場合は、ステージ4aの大きさが大きくなり、指間の間隔が縮まった場合は、ステージ4aの大きさが小さくなるようにすることができる。以上説明した本発明の設定プログラムは、タブレット端末のアプリケーションプログラムとしたが、タブレット端末に限らずスマートフォンやパーソナルコンピュータ等の情報機器のアプリケーションプログラムとしてもよい。
 以上の説明から理解される通り、図4のCPU40は、図19に例示される通り、位置情報取得部61,表示制御部63,関連付け部65および信号処理部67として機能する。位置情報取得部61は、ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得する。表示制御部63は、演奏者アイコン表示部52,楽器アイコン表示部54,ステージ表示部56およびアイコン表示部58を具備し、ユーザが操作をする際に閲覧をする各種画像を表示器44に表示させる。演奏者アイコン表示部52は、楽器の演奏を行う演奏者に対応する演奏者アイコン(Pアイコン4p)を表示器44に表示させる。楽器アイコン表示部54は、信号処理をする入力ch21-nに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコン(Iアイコン4d)を、入力ch21-nに対応させて、表示器44に表示させる。ステージ表示部56は、ステージ情報を取得して表示器にステージを表示させる。アイコン表示部58は、ステージ表示部56が表示したステージ上であって、位置情報取得部61で取得した演奏者の位置情報に対応する位置に、演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別を表す楽器アイコンとをそれぞれ表示させると共に、位置情報取得部61で取得した各スピーカの位置情報に対応する位置に、スピーカアイコン(SPアイコン4e)を表示させる。関連付け部65は、演奏者アイコンと、楽器アイコンとを視覚的に関連付ける。
 信号処理部67は、調整部72,保存部74,選別部76および呼出部78を具備し、アイコン表示部58で表示された演奏者アイコンあるいは楽器アイコンとスピーカアイコンとの選択操作に基づいて、選択された楽器アイコンに対応する楽器種別が表わす楽器の演奏音の音信号を処理する。調整部72は、演奏者にアサインされた楽器種別が指定されており、かつ、音信号に対し現在のch設定データの複数のパラメータ値に応じた信号処理を施す入力ch21-nに関して、ユーザの値変更指示に応じて、指定された楽器種別に応じたルールでそのch設定データに含まれるパラメータ値の調整を行う。保存部74は、ユーザからの保存指示に応じて、入力ch21-nの現在のch設定データを、指定された楽器種別に対応付けて、記憶部(例えばフラッシュメモリ11又はフラッシュメモリ42、もしくは外部メモリ)に保存する。選別部76は、記憶部に保存されている複数のch設定データの中から、指定された楽器種別と同じ又は類似する楽器種別のch設定データを選別する。呼出部78は、当該選別手順で選別されたch設定データのうちから、ユーザによるいずれかのch設定データの呼出指示を受け付け、その呼出指示で指定されたch設定データを現在のch設定データとして呼び出す。
 なお、前述の実施形態では、音信号の解析により種別候補を推測したが、種別候補を推測する方法は以上の例示に限定されない。例えば、デジタルカメラ又はデジタルカムコーダ等の撮像装置により楽器を撮影して得られた画像の解析により種別候補を推測してもよい。具体的には、楽器種別毎に楽器の画像の特徴量を事前に登録しておき、実際に楽器を撮影した画像の特徴量を、登録済の各楽器種別の特徴量と比較することで、種別候補を特定することが可能である。例えば、ステップ14でCPU40は、各楽器の画像の特徴量を公知の画像認識技術により算出する。ステップ15でCPU40は、撮影された楽器の画像の特徴量と、事前に用意された各楽器種別の画像の特徴量との類似度を算定し、楽器種別毎の類似度に応じて1以上の種別候補を特定する。また、楽器種別を記述した識別コード(例えばバーコード又はQRコード(登録商標))を撮影した結果から楽器種別を特定することも可能である。なお、楽器の画像から楽器種別を特定する構成では、各楽器の入力ch21-nは、例えば利用者による操作で指定される。
 楽器種別毎に事前に選定された特定の旋律(以下「識別フレーズ」という)をメンバに演奏させることで種別候補を推測することも可能である。例えば、複数の楽器種別の各々について別個の識別フレーズを登録しておく。メンバが演奏した旋律を音信号から判別し、事前に登録された複数の識別フレーズのうちメンバが演奏した旋律に類似する識別フレーズに対応する種別候補を推測する。
 前述の形態では、記憶部(フラッシュメモリ11もしくはフラッシュメモリ42、又は外部メモリ)にch設定データが記憶された構成を例示したが、ミキサ1又はタブレット端末2がch設定データを取得する方法は以上の例示に限定されない。例えば、楽器のch設定データを記述した識別コード(バーコード又はQRコード(登録商標))をその楽器に貼付しておき、この識別コードを撮影した結果から当該楽器のch設定データを取得することも可能である。
 以上に例示した具体的な形態から把握される本発明の好適な態様を以下に例示する。
<態様1>
 本発明の好適な態様(態様1)に係るプログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに、楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させる演奏者アイコン表示手順と、信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、入力チャンネルに対応させて、表示器に表示させる楽器アイコン表示手順と演奏者アイコンと、楽器アイコンとを視覚的に関連付ける関連付け手順とを実行させる。したがって、楽器アイコンに対応する楽器種別と演奏者アイコンが対応する演奏者との対応付けが明確になる。
<態様2>
 態様1の好適例(態様2)では、楽器アイコン表示手順では、入力チャンネルに入力された音信号をもとに推測された楽器種別の候補を、楽器アイコンとして表示器に表示させる。
<態様3>
 態様1の好適例(態様3)では、楽器アイコン表示手順において、入力チャンネルに入力された音信号をもとに推測された複数の楽器種別の候補の各々を楽器アイコンとして表示器に表示させる場合に、最も可能性の高い楽器種別の候補を強調して表示器に表示させる。
<態様4>
 態様1の好適例(態様4)では、楽器アイコン表示手順において、入力チャンネルに入力された音信号をもとに推測された複数の楽器種別の候補の各々が楽器アイコンとして表示器に表示される場合は、関連付け手順において、楽器種別の候補のうちの一番可能性のある楽器種別の候補の楽器アイコンを、演奏者アイコンに視覚的に関連付ける。
<態様5>
 態様1の好適例(態様5)では、演奏者アイコンに対応する演奏者と、楽器アイコンに対応する楽器とを対応付ける楽器情報が保存されている場合は、関連付け手順において、演奏者の演奏者アイコンと、楽器情報により当該演奏者に対応付けられた楽器の楽器アイコンとを視覚的に関連付ける。
<態様6>
 本発明の好適な態様(態様6)に係るプログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに、ステージ情報を取得して表示器にステージを表示させるステージ表示手順と、ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得する位置情報取得手順と、表示器に表示されたステージ上であって、位置情報取得手順で取得した演奏者の位置情報に対応する位置に、演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別の楽器アイコンとをそれぞれ表示させると共に、位置情報取得手順で取得した各スピーカの位置情報に対応する位置に、スピーカアイコンを表示させるアイコン表示手順と、アイコン表示手順で表示された演奏者アイコンあるいは楽器アイコンとスピーカアイコンとの選択操作に基づいて、選択された楽器アイコンに対応する楽器種別が表わす楽器の演奏音の音信号を処理する信号処理手順とを実行させる。したがって、ユーザは、表示器に表示された演奏者アイコンと楽器アイコンとステージとを見るだけで、メンバが演奏する楽器の演奏音の音質や音量を容易に調整することができる。
<態様7>
 態様6の好適例(態様7)では、アイコン表示手順では、入力チャンネルによる信号処理に関する操作アイコンを表示器にさらに表示させ、信号処理手順では、選択された楽器アイコンに対応する楽器種別が表わす楽器の演奏音に応じた音信号について、選択されたスピーカアイコンに対応するスピーカへの出力が、操作アイコンに対する操作に応じて設定される。
<態様8>
 態様6の好適例(態様8)では、信号処理手順では、演奏者にアサインされた楽器種別が指定されており、かつ、音信号に対し現在の設定データの複数のパラメータ値に応じた信号処理を施す入力チャンネルに関して、ユーザの値変更指示に応じて、指定された楽器種別に応じたルールで設定データに含まれるパラメータ値の調整を行う調整手順と、ユーザからの保存指示に応じて、入力チャンネルの現在の設定データを、指定された楽器種別に対応付けて、記憶部に保存する保存手順と、記憶部に保存されている複数の設定データの中から、指定された楽器種別と同じ又は類似する楽器種別の設定データを選別する選別手順と、選別手順で選別された設定データのうちから、ユーザによるいずれかの設定データの呼出指示を受け付け、その呼出指示で指定された設定データを現在の設定データとして呼び出す呼出手順とを実行させる。
<態様9>
 態様6の好適例(態様9)では、ルールは、ユーザに提示する入力チャンネルから送出される音信号のレベルの最適値を規定するルールである。
<態様10>
 態様6の好適例(態様10)では、ルールは、入力チャンネルにおけるイコライザ又はダイナミクスの複数のパラメータの連動した変化特性を規定するルールである。
<態様11>
 態様6の好適例(態様11)では、記憶部には、複数の演奏者にそれぞれ対応する複数の設定データが記憶されており、選別手順では、入力チャンネルに関して、同じ又は類似する楽器種別で、かつ、同じ演奏者の設定データを選別する。
<態様12>
 態様6の好適例(態様12)では、記憶部には複数の演奏者にそれぞれ対応する複数の設定データからなるバンドデータが複数保存されており、選別手順は、入力チャンネルに関して、複数のバンドデータの複数の設定データの中から、指定された楽器種別に対応する設定データを選別する。
<態様13>
 本発明の好適な態様(態様13)に係る表示制御方法は、コンピュータが、楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させ、信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、入力チャンネルに対応させて、表示器に表示させ、演奏者アイコンと、楽器アイコンとを視覚的に関連付ける。したがって、楽器アイコン対応する楽器種別と演奏者アイコンが対応する演奏者との対応付けが明確になる。
<態様14>
 本発明の好適な態様(態様14)に係る表示制御方法は、コンピュータが、ステージ情報を取得して表示器にステージを表示させ、ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得し、表示器に表示されたステージ上であって、取得した演奏者の位置情報に対応する位置に、演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別を表す楽器アイコンをそれぞれ表示させると共に、取得した各スピーカの位置情報に対応する位置に、スピーカアイコンを表示させ、表示された演奏者アイコンあるいは楽器アイコンとスピーカアイコンとの選択操作に基づいて、選択された楽器アイコンに対応する楽器種別が表わす楽器の演奏音に応じた音信号を処理する。したがって、ユーザは、表示器に表示された演奏者アイコンと楽器アイコンとステージを見るだけで、どのメンバが演奏する楽器なのか分かり、メンバが演奏する楽器の演奏音の音質や音量を容易に調整することができる。
1……ミキサ、2……タブレット端末、3……キャスティングモードの画面、3a……バンド名表示部、3b……バンド選択部、3c……モード選択部、3d……楽器表示エリア、3e……Iアイコン、3f……Pアイコン、3g……メンバ追加部、3h……ドラムキット、4……ステージモードの画面、4a……ステージ、4b……バンド名表示部、4c……モード選択部、4d……Iアイコン、4e……SPアイコン、4f……シーン選択ボタン、4g……ストアボタン、4h~4k……調整ツマミ、4m……メンバ選択表示部、4n……スピーカ選択表示部、4p……Pアイコン、4r……ライブラリボタン、10……CPU、11……フラッシュメモリ、12……RAM、13……その他I/O、14……波形I/O、15……信号処理部、16……表示器、17……電動フェーダ、18……操作子、19……通信バス、20……入力ポート、21……入力ch、22……バス、23……出力ch、24……出力ポート、30……アッテネータ、31……イコライザ、32……ダイナミクス、33a~33f……フェーダ、34a~34f……スイッチ、40……CPU、41……フラッシュメモリ、43……外部I/O、44……表示器、45……操作子、46……通信バス、61……位置情報取得部、63……表示制御部、65……関連付け部、67……信号処理部、52……演奏者アイコン表示部、54……楽器アイコン表示部、56……ステージ表示部、58……アイコン表示部、72……調整部、74……保存部、76……選別部、78……呼出部。
 

Claims (14)

  1.  コンピュータに、
     楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させる演奏者アイコン表示手順と、
     信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、前記入力チャンネルに対応させて、前記表示器に表示させる楽器アイコン表示手順と、
     前記演奏者アイコンと、前記楽器アイコンとを視覚的に関連付ける関連付け手順と、
     を実行させることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。
  2.  前記楽器アイコン表示手順では、前記入力チャンネルに入力された音信号をもとに推測された楽器種別の候補を、前記楽器アイコンとして前記表示器に表示させることを特徴とする請求項1に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  3.  前記楽器アイコン表示手順において、前記入力チャンネルに入力された音信号をもとに推測された複数の楽器種別の候補の各々を前記楽器アイコンとして前記表示器に表示させる場合に、最も可能性の高い楽器種別の候補を強調して前記表示器に表示させることを特徴とする請求項1に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  4.  前記楽器アイコン表示手順において、前記入力チャンネルに入力された音信号をもとに推測された複数の楽器種別の候補の各々が前記楽器アイコンとして前記表示器に表示される場合は、前記関連付け手順において、前記楽器種別の候補のうちの一番可能性のある楽器種別の候補の楽器アイコンを、前記演奏者アイコンに視覚的に関連付けることを特徴とする請求項1に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  5.  前記演奏者アイコンに対応する演奏者と、前記楽器アイコンに対応する楽器とを対応付ける楽器情報が保存されている場合は、前記関連付け手順において、前記演奏者の演奏者アイコンと、前記楽器情報により当該演奏者に対応付けられた楽器種別の楽器アイコンとを視覚的に関連付けることを特徴とする請求項1に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  6.  コンピュータに、
     ステージ情報を取得して表示器にステージを表示させるステージ表示手順と、
     前記ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得する位置情報取得手順と、
     前記表示器に表示された前記ステージ上であって、前記位置情報取得手順で取得した前記演奏者の位置情報に対応する位置に、前記演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別の楽器アイコンとをそれぞれ表示させると共に、前記位置情報取得手順で取得した前記各スピーカの位置情報に対応する位置に、スピーカアイコンを表示させるアイコン表示手順と、
     前記アイコン表示手順で表示された前記演奏者アイコンあるいは前記楽器アイコンと前記スピーカアイコンとの選択操作に基づいて、選択された前記楽器アイコンに対応する楽器種別が表わす楽器の演奏音の前記音信号を処理する信号処理手順と、
     を実行させることを特徴とするプログラムを記録したコンピュータ読み取り可能な記録媒体。
  7.  前記アイコン表示手順では、入力チャンネルによる信号処理に関する操作アイコンを前記表示器にさらに表示させ、
     前記信号処理手順では、前記選択された楽器アイコンの楽器種別が表わす楽器の演奏音の音信号について、前記選択されたスピーカアイコンに対応するスピーカへの出力が、前記操作アイコンに対する操作に応じて設定されることを特徴とする請求項6に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  8.  前記信号処理手順では、
     前記演奏者にアサインされた楽器種別が指定されており、かつ、前記音信号に対し現在の設定データの複数のパラメータ値に応じた信号処理を施す前記入力チャンネルに関して、ユーザの値変更指示に応じて、前記指定された楽器種別に応じたルールで前記設定データに含まれるパラメータ値の調整を行う調整手順と、
     ユーザからの保存指示に応じて、前記入力チャンネルの現在の設定データを、前記指定された楽器種別に対応付けて、記憶部に保存する保存手順と、
     前記記憶部に保存されている複数の設定データの中から、前記指定された楽器種別と同じ又は類似する楽器種別の設定データを選別する選別手順と、
     前記選別手順で選別された設定データのうちから、ユーザによるいずれかの設定データの呼出指示を受け付け、その呼出指示で指定された設定データを現在の設定データとして呼び出す呼出手順と、
     を実行させることを特徴とする請求項6に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  9.  前記ルールは、ユーザに提示する前記入力チャンネルから送出される音信号のレベルの最適値を規定するルールであることを特徴とする請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10.  前記ルールは、前記入力チャンネルにおけるイコライザ又はダイナミクスの複数のパラメータの連動した変化特性を規定するルールであることを特徴とする請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  11.  前記記憶部には、複数の演奏者にそれぞれ対応する複数の設定データが記憶されており、
     前記選別手順では、前記入力チャンネルに関して、同じ又は類似する楽器種別で、かつ、同じ演奏者の設定データを選別することを特徴とする請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  12.  前記記憶部には、複数の演奏者にそれぞれ対応する複数の設定データからなるバンドデータが複数保存されており、前記選別手順は、前記入力チャンネルに関して、前記複数のバンドデータの複数の設定データの中から、前記指定された楽器種別に対応する設定データを選別することを特徴とする請求項8に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
  13.  コンピュータが、
     楽器の演奏を行う演奏者に対応する演奏者アイコンを表示器に表示させ、
     信号処理をする入力チャンネルに入力された音信号が表す演奏音に対応する楽器の楽器種別に応じた楽器アイコンを、前記入力チャンネルに対応させて、前記表示器に表示させ、
     前記演奏者アイコンと、前記楽器アイコンとを視覚的に関連付ける
     ことを特徴とする表示制御方法。
  14.  コンピュータが、
     ステージ情報を取得して表示器にステージを表示させ、
     前記ステージにおける演奏者の位置情報と、スピーカの位置情報とを取得し、
     前記表示器に表示された前記ステージ上であって、前記取得した演奏者の位置情報に対応する位置に、前記演奏者の演奏者アイコンと、当該演奏者にアサインされた楽器種別を表す楽器アイコンをそれぞれ表示させると共に、前記取得した各スピーカの位置情報に対応する位置に、スピーカアイコンを表示させ、
     前記表示された演奏者アイコンあるいは楽器アイコンとスピーカアイコンとの選択操作に基づいて、選択された前記楽器アイコンに対応する楽器種別が表わす楽器の演奏音に応じた前記音信号を処理する
     ことを特徴とする表示制御方法。
     
PCT/JP2016/079427 2015-10-05 2016-10-04 プログラムを記録した記録媒体および表示制御方法 WO2017061410A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015-197446 2015-10-05
JP2015197446A JP2017073590A (ja) 2015-10-05 2015-10-05 音信号処理装置用プログラム
JP2015-198503 2015-10-06
JP2015198503A JP2017073631A (ja) 2015-10-06 2015-10-06 音信号処理装置用設定プログラム

Publications (1)

Publication Number Publication Date
WO2017061410A1 true WO2017061410A1 (ja) 2017-04-13

Family

ID=58487723

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/079427 WO2017061410A1 (ja) 2015-10-05 2016-10-04 プログラムを記録した記録媒体および表示制御方法

Country Status (1)

Country Link
WO (1) WO2017061410A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199455A (zh) * 2019-12-19 2020-05-26 南京酷派软件技术有限公司 选择乐器的方法、装置、电子设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028621A (ja) * 2008-07-23 2010-02-04 Yamaha Corp 電子音響システム
JP2010034983A (ja) * 2008-07-30 2010-02-12 Yamaha Corp 表示装置、オーディオ信号処理装置、オーディオ信号処理システム、表示方法およびオーディオ信号処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028621A (ja) * 2008-07-23 2010-02-04 Yamaha Corp 電子音響システム
JP2010034983A (ja) * 2008-07-30 2010-02-12 Yamaha Corp 表示装置、オーディオ信号処理装置、オーディオ信号処理システム、表示方法およびオーディオ信号処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199455A (zh) * 2019-12-19 2020-05-26 南京酷派软件技术有限公司 选择乐器的方法、装置、电子设备及介质

Similar Documents

Publication Publication Date Title
JP5258796B2 (ja) インテリジェント等化のためのシステム及び方法
US10062367B1 (en) Vocal effects control system
US9460695B2 (en) Synthesizer with bi-directional transmission
TW201835894A (zh) 即時編輯多音軌的電子設備與處理方法
WO2017057530A1 (ja) 音響処理装置及び音響処理方法
JP5748078B2 (ja) 楽曲演奏装置及び楽曲演奏プログラム
JP6729052B2 (ja) 演奏指示装置、演奏指示プログラム、および演奏指示方法
WO2017061410A1 (ja) プログラムを記録した記録媒体および表示制御方法
JP2017073631A (ja) 音信号処理装置用設定プログラム
JP2007093679A (ja) 音源設定装置及び音源設定プログラム
JP2005080265A (ja) 複数チャンネルのミュート設定装置およびそのプログラム
JP2014066922A (ja) 楽曲演奏装置
JP2017073590A (ja) 音信号処理装置用プログラム
JP6316099B2 (ja) カラオケ装置
JP2009244712A (ja) 演奏システム及び録音方法
JP5577629B2 (ja) 電子音楽装置
JP2016174225A (ja) 表示制御装置及びミキシングコンソール
US20230260490A1 (en) Selective tone shifting device
WO2023062865A1 (ja) 情報処理装置および方法、並びにプログラム
JP2005080264A (ja) 複数チャンネルの信号制御量設定装置およびそのプログラム
JP7434083B2 (ja) カラオケ装置
JP4501639B2 (ja) 音響信号読出装置及びプログラム
JP6774842B2 (ja) カラオケ装置
WO2010119541A1 (ja) 音発生装置、音発生方法、音発生プログラム、及び記録媒体
JP6587396B2 (ja) ギターカラオケ採点機能を備えるカラオケ装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853564

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16853564

Country of ref document: EP

Kind code of ref document: A1