WO2007037067A1 - 合奏システム - Google Patents

合奏システム Download PDF

Info

Publication number
WO2007037067A1
WO2007037067A1 PCT/JP2006/315075 JP2006315075W WO2007037067A1 WO 2007037067 A1 WO2007037067 A1 WO 2007037067A1 JP 2006315075 W JP2006315075 W JP 2006315075W WO 2007037067 A1 WO2007037067 A1 WO 2007037067A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
terminal
controller
assigned
performance terminal
Prior art date
Application number
PCT/JP2006/315075
Other languages
English (en)
French (fr)
Inventor
Satoshi Usa
Tomomitsu Urai
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Priority to EP06768384A priority Critical patent/EP1930873A4/en
Priority to US12/088,430 priority patent/US7888576B2/en
Publication of WO2007037067A1 publication Critical patent/WO2007037067A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Definitions

  • the present invention relates to an ensemble system in which even a person unfamiliar with the operation of a musical instrument can easily participate in an ensemble.
  • Performance display device that displays the performance timing of the model performance and the performance timing of the user on the screen, making it easy to see the difference from the model performance (See, for example, Japanese Patent Laid-Open No. 2 0 2-9 1 2 90).
  • the above performance support device and performance display device display the deviation from the score data and the sample performance (demon performance). Therefore, it is used by individual users to improve their performance.
  • a predetermined number of people for example, 5
  • a facilitator guides each participant.
  • each participant plays along with the performance of the facilitator.
  • the above performance support device and performance display device can display the amount of deviation from the musical score data and the demo performance by the machine, but cannot display the amount of deviation from human performance such as a guide role. It wasn't.
  • An object of the present invention is to provide an ensemble system that enables even a person unfamiliar with the operation of a musical instrument to easily grasp the amount of deviation from the performance of a guide role. Disclosure of the invention
  • the ensemble system of the present invention includes a plurality of performance terminals each having at least one performance operator for performing a performance operation, at least one sound source, and the plurality of sound sources.
  • a performance system comprising: a performance terminal and a controller connected to at least one sound source and controlling each performance terminal, wherein the controller is a performance music composed of a plurality of performance parts.
  • Memory stage for storing data and instructions for starting and ending performance And a plurality of performance parts are assigned to the plurality of performance terminals, and the performance parts assigned to the performance terminals are assigned according to the operation mode of the performance operators of each performance terminal.
  • the user instructs the start of performance using the operation means of the controller, and performs the performance operation with the performance operator of the performance terminal.
  • the performance operator of the performance terminal is, for example, an electronic piano keyboard.
  • an operation signal is sent to the controller.
  • the controller sends a sound generation instruction to the sound source based on the received operation signal.
  • the sound source produces a musical sound in response to a sound generation instruction.
  • One of the performance terminals is for the facility.
  • the controller detects a deviation in the number of times of input (the difference in the number of keystrokes from the beginning of the song) for the role of the guide (for example, for a facilitator).
  • the difference in the number of keystrokes of each performance terminal is displayed on a display unit such as a display.
  • the sound source is built in each of the plurality of performance terminals, and the performance control means of the controller assigns the performance part data assigned to the read performance part data. Output to the sound source built into the playing terminal.
  • the controller reads the performance part assigned to the performance terminal based on the operation signal received from the performance terminal, and reads the data of the read performance part. Send to the sound source built in the performance terminal.
  • the built-in tone generator of the performance terminal plays music according to the received pronunciation instructions. Pronounce. In this way, each performance part is pronounced at each performance terminal.
  • the controller is further provided with a fast-forward instruction means for giving a fast-forward instruction to a performance part assigned to at least one performance terminal.
  • the control means performs high-speed reading of the performance part assigned to the performance terminal when the fast-forward instruction is performed by the fast-forward instruction means.
  • the controller when a fast-forward instruction is given, the controller performs high-speed reading of the performance part of the performance terminal and transmits the performance part data read to the sound source. Since the sound source produces musical sounds according to the performance part data read out at high speed, it is fast-forwarded and produced. As a result, the performance of each user can always catch up with the performances of the surrounding players. It is also possible to specify fast-forwarding by simultaneously specifying all performance terminals including the performance terminal for the guide role.
  • each of the performance terminals includes terminal fast-forward instruction means for giving a fast-forward instruction to a performance part assigned to the performance terminal, and the performance control means of the controller includes When a fast-forward instruction is given by the terminal fast-forward instruction means, the performance part assigned to the performance terminal is read at high speed.
  • the controller when a fast-forwarding instruction is given to each performance terminal at each performance terminal, the controller performs high-speed reading of the performance part of the performance terminal, and the performance part read to the sound source is read. Send data. Since the sound source produces musical sounds according to the performance part data read out at high speed, it is fast-forwarded and produced. This allows each user to keep up with the performances of the surrounding performers at any time.
  • the controller is allocated to at least one playing terminal.
  • a rewind instruction means for instructing rewinding of the applied performance part is further provided, and the performance control means of the controller receives the rewind instruction by the rewind instruction means. At this time, the performance parts read in the past of the performance terminal are read out in reverse order.
  • the controller when a whirling instruction is given, the controller reads the performance parts of the performance terminal in reverse time order and transmits the performance part data read to the sound source.
  • the sound source will sound in the reverse order of normal, and rewind playback will be performed.
  • the performance of each user can be returned to the current timing when the performance is progressing more than the surrounding performers.
  • each of the performance terminals includes terminal rewind instruction means for instructing rewind of a performance part assigned to its own performance terminal, and the performance control means of the controller includes: When a rewinding instruction is issued by the terminal rewinding instruction means, the performance parts read in the past of the performance terminal are read out in reverse order.
  • the controller when a rewind instruction is given to each performance terminal at each performance terminal, the controller reads the performance parts of that performance terminal in reverse time order, and the performance parts read to the sound source are read. Send the data.
  • the sound source will sound in the reverse order of normal playback, and rewind playback will be performed. This allows each user to return to the current timing if the performance has progressed more than the surrounding performers.
  • the controller includes a misalignment correcting instruction means for giving an instruction to eliminate a performance misalignment between at least one performance terminal and the performance terminal for guide role.
  • the roller performance control means when an instruction to eliminate the performance deviation is given by the deviation correction instruction means, the reading progress of the performance part assigned to the performance terminal for the guide role and the Performance terminal The performance part assigned to the performance terminal is read out so that it matches the reading progress of the performance part assigned to.
  • the controller can cancel the performance gap between the performance terminal for the user (student role) and the performance terminal for the guide role at any time.
  • each of the performance terminals includes terminal misalignment correction instructing means for instructing to eliminate performance misalignment between the performance terminal of the player and the performance terminal for the guide role, and the performance of the controller
  • the control means assigns to the performance terminal the reading progress of the performance part assigned to the performance terminal for the guide role and the performance terminal when an instruction to eliminate the deviation is given by the terminal deviation correction instruction means.
  • the performance part assigned to the performance terminal is read out so that it matches the reading progress of the assigned performance part.
  • Figure 1 is a block diagram showing the configuration of the performance system.
  • Fig. 2 is a block diagram showing the configuration of the controller.
  • Fig. 3 is a block diagram showing the configuration of the performance terminal.
  • FIG. 4 is a diagram showing an example of music data.
  • FIG. 5 is a diagram showing an example of the part assignment table.
  • FIG. 6 shows the main operation window.
  • Fig. 7 shows the ensemble window.
  • Fig. 8A is a diagram showing the setting of the number of beats
  • Fig. 8B is the time signature (1st beat, 3rd beat) that becomes the keystroke timing and the beat that does not become the keystroke timing. It is a figure which shows the icon display example of a child (2nd beat, 4th beat).
  • Figure 9 shows the current beat transition.
  • FIG. 10 is a diagram for explaining the displacement of the beat with the performance terminal “Fac i i itatorJ”.
  • Figure 11 shows an ensemble window that includes a “Modify” button.
  • Fig. 1 is a block diagram showing the configuration of the ensemble system. As shown in the figure, this ensemble system has controller 1 and controller 1 with M l
  • performance terminal 2A is a performance terminal for a facilitator (guide role)
  • performance terminals 2B to 2F are performance terminals for participants (student roles) .
  • 5 participants using performance terminals 2 B to 2 F always use the same performance terminal 2. This allows the facilitator to identify participants at the performance terminal.
  • the controller 1 is composed of, for example, a personal computer, and controls each performance terminal 2 and collects data by software installed in the personal computer. Controller 1 stores performance music data consisting of multiple parts. These parts consist of one or more medivas, rhythm parts, and accompaniment parts.
  • the controller 1 includes a communication unit 11 to be described later, which transmits sound data of each part (or a plurality of parts) to each performance terminal 2.
  • the performance terminal 2 generates musical sounds according to the performance operation of the user as well as the performance operation by the user, and is configured by an electronic keyboard instrument such as an electronic piano. .
  • controller 1 and USB The MIDI interface box 3 connected with is used to connect each performance terminal 2 with a separate MIDI system.
  • the performance terminal 2A is a performance terminal for the facilitator.
  • Controller 1 is used to specify the performance terminal for the facility.
  • the performance terminal 2 is not limited to an electronic piano, and may be another form of electronic musical instrument such as an electronic guitar.
  • the external appearance is not limited to natural musical instruments, but may be a terminal with buttons and other controls.
  • the performance terminal 2 does not need to incorporate a sound source, and an independent sound source may be connected to the controller 1.
  • the number of sound sources connected to the controller 1 may be one, or the same number as that of the performance terminal 2.
  • the controller 1 may assign each part of the performance music data by associating each sound source with the performance terminal 2.
  • This ensemble system assigns multiple performance parts of performance data stored in controller 1 to multiple performance terminals 2, and each performance terminal 2 is assigned independently.
  • Controller 1 transmits to performance terminal 2 a sound instruction for each note of the performance part assigned to performance terminal 2 based on the input tempo and timing instructions.
  • the performance terminal 2 performs automatic performance based on the received pronunciation instruction.
  • An ensemble is formed when the students using each performance terminal 2 take the tempo in time with the facilitator.
  • FIG. 2 is a block diagram showing the configuration of the controller 1.
  • controller 1 includes communication unit 11, control unit 1 2, HDD 1 3, R It has AM 1 4, operation unit 1 5, and display unit 1 6.
  • a communication unit 11, HDD 13, RAM I 4, operation unit 15, and display unit 16 are connected to the control unit 12.
  • the communication unit 1 1 is a circuit unit that communicates with the performance terminal 2 and has a USB interface (not shown).
  • the USB interface is connected to the M ID I interface box 3, and the communication unit 11 communicates with the six performance terminals 2 via the MI D I interface box 3 and the MI D I cable.
  • H D D 1 3 stores the operation program for controller 1 and performance music data consisting of multiple parts.
  • the control unit 1 2 reads out the operation program stored in the HDD 1 3 and expands it to the RAM I 4 that is the work memory, the part allocation process 50, the sequence process 51, and the sound generation instruction. Process 5 2 etc. are executed.
  • the control unit 1 2 assigns each performance part of the performance music data to a plurality of performance terminals 2.
  • the controller 1 2 sequences each performance part of the performance data according to the tempo and timing instructions received from each performance terminal 2 (determining the pitch, length, etc. of each sound).
  • the control unit 12 transmits the pitch and length of each sound determined in the sequence process 51 to the performance terminal 2 as sound generation instruction data.
  • control unit 12 includes a shift detection unit 60 that detects a beat shift (keystroke timing) of each performance terminal.
  • the operation unit 15 is for a user (mainly a facilitator) to instruct the performance system to operate.
  • the facilitator operates the operation unit 15 to specify, for example, performance music data to be played, or to assign the performance part of each performance terminal 2.
  • the display unit 16 is a display (monitor), and each participant performs a performance operation while viewing the display unit 16. Although details will be described later, the display unit 16 has various information for performing the ensemble. Information is displayed. '
  • FIG. 3 is a block diagram showing the configuration of the performance terminal 2.
  • the performance terminal 2 includes a communication unit 2 1, a control unit 2 2, a keyboard 2 3 that is a performance operator, a sound source 2 4, and a speaker 2 5.
  • a communication unit 2 1, a keyboard 2 3, and a sound source 2 4 are connected to the control unit 2 2.
  • a speaker 25 is connected to the sound source 24.
  • the communication unit 21 is a M ID I interface, and communicates with the controller 1 via a M ID cable.
  • the control unit 2 2 controls the performance terminal 2 in an integrated manner.
  • the keyboard 23 has, for example, 61 keys and 88 keys, and can play a range of 5-7 octaves. In this ensemble system, note on / off Only tof message and key strength data are used. That is, each key has a built-in sensor that detects on / off and a sensor that detects the strength of the keystroke, and the keyboard 2 3 controls the operation mode of each key (which key is keyed at what strength). The operation signal is output to the control unit 22 according to whether it has been done.
  • the control unit 22 Based on the input operation signal, the control unit 22 sends a not-on message or a not-off message to the controller 1 via the communication unit 21.
  • the sound source 24 generates a musical sound waveform according to the control of the control unit 22 and outputs it as an audio signal to the speaker 25.
  • Speaking power 2 5 plays the audio signal input from sound source 2 4 and produces a musical sound.
  • the sound source 2 4 and the speaker 2 5 do not have to be stored in the performance terminal 2.
  • the sound source 2 4 and the speaker 25 may be connected to the controller 1 so that the musical sound is produced from a different place from the performance terminal 2.
  • the same number of sound sources as each performance terminal 2 may be connected to the controller 1, or a single sound source may be used.
  • the control unit 2 2 sends a note-on / not-off message to the controller 1 (single call-off), It is not a note message from the keyboard 2 3 but sounds a sound in response to an instruction from the controller 1.
  • the performance terminal 2 is a general electronic musical instrument apart from the above operations. It can also be used.
  • the control unit 2 2 does not send a note message to the controller 1 (mouth—calon), but sounds a tone to the sound source 2 4 based on the note message. It is also possible to instruct. Mouth Karon and Mouth Karoff may be switched by the user using the operation unit 15 of the controller 1 or by the terminal operation unit (not shown) of the performance terminal 2. It is also possible to set only a part of the keys to be cuffed off and the other keys to be turned on locally.
  • the user selects performance data using the controller 15 of the controller 1.
  • the performance music data is data (standard M I D I) created in advance based on the M I D I standard, and is stored in the HDD 1 3 of the controller 1.
  • Figure 4 shows an example of this music data.
  • the performance music data is composed of a plurality of performance parts, and includes identification information for identifying each performance part and performance information of each performance part.
  • controller 1 assigns a performance part to each connected performance terminal 2.
  • a table is specified in advance for which performance part is assigned to which performance terminal.
  • FIG. 5 is a diagram showing an example of the performance part assignment table.
  • performance port 1 corresponds to MIDI port 0 (performance terminal for facilitator).
  • performance part 1 is connected to performance terminal 2A.
  • the MIDI port indicates the port number of the MIDI interface box 3, and each performance terminal 2 is connected to it. It is identified by the MIDI port.
  • the performance part 2 corresponds to the MIDI port 1. (piano 1).
  • the performance part 2 is assigned to the performance terminal 2B '. In this way, each performance terminal 2 is automatically assigned a performance part.
  • This performance part allocation table is registered in the HDD 1 3 of the controller 1 by the facilitator in advance. Note that the facilitator may be manually selected using the operation section 15 of the controller 1.
  • each performance terminal 2 is connected to the USB port, you can identify each performance terminal 2 by the USB port number.
  • controller 1 When the facilitator selects the performance song data and controller 1 assigns a performance part to each performance terminal 2, the facilitator starts operation of controller 1 15 on controller 1. Enter standby instructions.
  • the performance start standby here does not mean that the musical tone is actually generated, but the controller 1 is ready to read the performance data from the HDD 13 to the RAMI 4 and perform the performance. It is.
  • each performance terminal 2 can perform.
  • this ensemble system multiple users perform performance operations according to the performance of the facilitator (ensemble leader).
  • each user performs in accordance with the performance of the facilitator (human performance) rather than simply performing in accordance with the model performance (machine demo performance). You can get a sense of that.
  • the control unit 2 2 When each user presses the controller (keyboard) 2 3 of the performance terminal 2 with his / her finger, the control unit 2 2 sends a no-on message to the controller 1 according to the strength of pressing the keyboard 2 3. .
  • the note-on message includes information such as the key strength (Velocity).
  • the control unit 2 2 transmits a note-off message to the controller 1.
  • the controller 1 Based on the note-on message and note-off message received from the performance terminal 2, the controller 1 has a predetermined length (for example, 1) of the performance parts assigned to the performance terminal 2 ′.
  • the pitch and pitch of each sound in the performance data for the beat is determined, and the performance data for which the pitch and pitch have been determined is transmitted to the performance terminal 2 as pronunciation instruction data.
  • the pronunciation instruction data includes the timing, tone length, intensity, tone color, effect, pitch change (pitch bend), tempo, etc. that should be pronounced.
  • Controller 1 determines the sound generation instruction data based on the time from when a note-on message is received until the note-off message is received. Specifically, when a note-on message is input, the performance information for the specified length (such as one beat) of the corresponding performance part of the performance data is read and pronounced. Determine tone, effect, pitch change, etc. Controller 1 determines the sound intensity based on the Ve to c i t y information of the note-on message.
  • the performance information of the performance music data includes information indicating the volume, and the intensity is determined by multiplying the volume by the Velocity information. In other words, the performance data contains volume information that takes into account the volume expression (sound intensity) in the song in advance. However, each user has a dynamic expression corresponding to the strength with which the user presses the keyboard. It is added and the pronunciation intensity is determined.
  • Controller 1 measures the time since a note-on message was entered when a note-off message was entered. Until the note-off message is input, the first tone is generated as it is, and when the note-off message is input, the tempo of each beat and the length of each note are determined, and the next tone Pronounce.
  • the tempo may be determined simply from the time from note-on power to note-off (referred to as “Gat eTi me”), but the tempo is determined as follows. Also good. In other words, the moving average of Ga teT i me is calculated for multiple keystrokes (several to the previous several times), and this is weighted by time. The most weight is given to the most recent keystroke, and the weight is made smaller as the past keystrokes are reached. By determining the tempo in this way, the tempo does not change suddenly even if the GatteTi rae changes greatly only when a key is played, and there is no sense of incongruity according to the flow of the song. You can change the tempo.
  • the control unit 2 2 of the performance terminal 2 receives the sound generation instruction data determined by the controller 1 as described above, and instructs the sound source 2 4 to generate a musical sound waveform.
  • the sound source 2 4 generates a musical sound waveform and reproduces a musical sound from the speaker 25.
  • the above process is repeated. For example, by pressing the keyboard 2 3 every beat, the song can be played.
  • the first tone is generated as it is, so the same tone will continue to be played until the user lifts his finger from the keyboard 23. Therefore, in this ensemble system, it is possible to realize a performance expression (fermata) that extends the sound.
  • the following performance expression can be realized by determining the tempo based on the moving average of the game time as described above. For example, if keyboard 2 3 is pressed shortly only when a certain key is pressed, the length of each note for that beat is shortened, while if keyboard 23 is pressed slowly, that beat Increase the length of each sound. This makes it possible to create performance expressions (staccatos) that improve the crispness of each sound without changing the tempo, or perform expressions that maintain the length of the sound without changing the tempo. (Tenuto) can be realized.
  • a note-on message and a note-off message are sent to the controller 1 even if any of the keyboards 2 3 of the performance terminals 2 A to 2 F is pressed.
  • Toya Tenuto works You can separate the keyboard from the one that doesn't work. Controller 1 only needs to change the sound length while maintaining the tempo only when a note-on message or a note-off message is input from a specific keyboard (eg, E 3).
  • FIG. 6 shows a main operation window displayed on the display unit 16.
  • the name of the performance data selected by the user is displayed in the upper text field of this window. “Each playing terminal (Facilitator, Pianol ⁇ 5) is displayed in the“ Setting J field ”, and a pull-down menu for selecting the attendance for each playing terminal and a radio button for assigning the performance part are displayed.
  • Each performance terminal (Facilitator, Pianol to 5) is associated with the MIDI port of MIDI interface box 3.
  • the attendance pull-down menu is selected and input by the facilitator according to the student's attendance.
  • the radio button is displayed only for performance terminals to which a performance part is assigned in the performance data.
  • performance parts 1, 2, 3, and 10 are set in the selected musical composition data.
  • the performance terminal “ “Facilitator”, “Pianol”, “Piano2”, and “Piano3” are automatically assigned to performance parts 1, 2, 3, and 10.
  • performance pads are only assigned to the performance terminals ⁇ Facilitator '' and ⁇ Pianol ⁇ 3 ''.
  • the performance parts are assigned to the performance terminals “Facilitator” and “Pianol ⁇ 5”, respectively.
  • the performance terminal “Facilitat 0 rJ is assigned multiple performance parts
  • the user operating the controller 1 selects each radio button by selecting a radio button. It is also possible to manually select a part as your favorite playing terminal, or select the “FacilitatorOnlyJ” check box to assign all playing parts to the “Facilitator” playing terminal. Note that radio buttons are not displayed on performance terminals whose pull-down menu is set to “absent”, and performance parts are not assigned.
  • performance parts when performance parts are automatically assigned based on the table in Fig. 5, if "absent” is selected for the "attendance” and “absence” pull-down menus, they should be assigned to that performance terminal.
  • the performance part is assigned to the performance terminal “Facilitator”. In this case, the performance part ⁇ of “absent” is replaced with another performance terminal to which a performance part (for example, bass, stringed instrument group, etc.) is assigned. You may make it hit.
  • the related performance part should be specified in advance using a table.
  • the radio button with 2 beats when the radio button with 2 beats is selected in this performance, the key is played every other beat.
  • the first and third beats are keystroke timings.
  • the controller 1 when a note-on message and a note-off message are transmitted from the performance terminal 2, the controller 1 returns sound generation instruction data for two beats. In other words, two beats are played with a single keystroke.
  • the left side of the center of the ensemble window shows the current number of measures, the number of beats in the measure (the number of times the key should be played within the measure), and the current (Current keystroke timing) is displayed.
  • the number of times the key should be pressed is displayed with a square icon with numbers inside, and the current beat is displayed with a solid square icon.
  • the display method is not limited to the icon in this example, but may be an icon having another shape.
  • the time signature (second beat, fourth beat) that does not become the keystroke timing is displayed by changing it to another shape such as a circle number.
  • the current beat will change by one beat as shown in Fig. 9.
  • the 3D square icon is changed to the 1st, 2nd, 3rd, and 4th beats for each keystroke.
  • the performance data in this example is music data of 4 beats and 4 minutes, so when the next key is pressed for the 4th beat, it returns to the 1st beat and progresses by 1 measure.
  • the controller 1 2 of the controller 1 detects a shift in the beat (keying timing) of each performance terminal. More specifically, the control unit 1 2 determines the reading progress of the performance part to which the performance terminal 2 of the facilitator is assigned and the reading progress of the performance part to which the other performance terminals are assigned. Detecting the deviation of. Using this detection result, the window of FIG.
  • a field indicating a beat deviation from the performance terminal “Facilitator” is displayed on the right side of the center of the window.
  • This field has a vertical Several lines (for example, 5 lines) are displayed in the direction, and the line is displayed in the horizontal direction corresponding to each performance terminal.
  • a circle is displayed corresponding to each performance terminal. This circle indicates the gap in beats with the performance terminal “Facilitator”.
  • FIG. 10 is a diagram for explaining the difference in beat with the performance terminal “Facilitator”.
  • the circle corresponding to the performance terminal “Facilitator” is displayed fixed to the center line of the vertical lines.
  • the circle corresponding to each user's performance terminal (for example, “Pianol”) moves to the left and right according to the displacement of the beat with the performance terminal “FacilitatorJ.
  • the performance terminal“ If the key is delayed by one measure (four beats in this example) from the “Facilitator”, the circle moves to the left by one vertical line as shown in the figure.
  • Half measure (2 beats) If delayed, the circle moves from the vertical center line to the left by half the line interval.
  • the performance terminal used as a reference is not limited to the performance terminal “Facilitator”. Displays the amount of beat deviation from the performance terminal 2 on the basis of one of the multiple performance terminals 2:
  • the field indicating the displacement of the beat with the performance terminal “Facilitator” is not limited to the example displayed on the display section 16 of the controller 1, but for the performance terminal installed in each performance terminal 2. It may be displayed on the display (not shown).
  • the beat deviation of each performance terminal 2 that is, the deviation of the number of keystrokes
  • the facilitator itself can easily grasp the performance deviation of each participant, so that each participant can be instructed whether to make it faster or slower.
  • the facilitator can change the performance tempo according to the performance gap of each participant. Even in this case, the circle corresponding to the performance terminal “Facilitator” shown in FIG.
  • Fig. 7 the performance pauses when the Pause button is pressed among the performance control buttons displayed at the left center of the window. The sound is not pronounced. Controller 1 does not transmit sounding data to each performance terminal 2 even when a note-on message is input from each performance terminal 2 when the Pause button is pressed and paused.
  • the Pause button is pressed again or the Start button is pressed in this state, the pause state described above is canceled, and when a note-on message is received, the sounding data is transmitted to the corresponding performance terminal 2. .
  • FF button among the performance control buttons in Fig. 7 enters the fast forward state.
  • controller 1 will play the performance part assigned to all connected performance terminals 2 faster than normal (for example, 4 Double-speed) and send the pronunciation data to each performance terminal 2.
  • Controller 1 continues to transmit sound data when in fast-forward state. If the FF button is pressed again and the fast-forward state is canceled, transmission of the pronunciation data is stopped.
  • reading at quadruple speed refers to the performance speed history of the performance terminal “Faciliator” (moving average of GateTi rae), and it may be read at quadruple speed. Based on the playback speed (tempo data) described in advance in the song data, it may be read out at a speed four times that speed.
  • Control Port 1 will treat not-off events as not-on events and not-on-events as note-off events in performance data, which is MIDI data. At this time, the data may be read out at a higher speed than normal (eg, quadruple speed), or may be read out at a normal speed.
  • the control unit 1 When the control unit 1 is in the rewind state, it continues to transmit the sounding data in reverse time order. If the REW button is pressed again and the rewind state is released, transmission of the sound data is stopped.
  • controller 1 uses the keyboard 2 3 of the performance terminal 2, fast forward and rewind can be performed individually for each performance terminal. Each user can instruct fast forward and rewind by pressing a specific key (eg C2, C3, etc.). Controller 1 receives the performance part assigned to performance terminal 2 when a note-on message or note-off message of the fast-forwarding keyboard is input from each performance terminal 2. Is also read at high speed, and the pronunciation data is transmitted. Controller 1 continues to transmit sound data when in fast-forward state. When a note-on message or note-off message for the fast-forward key is input again from the performance terminal 2, transmission of the sound data is stopped.
  • a specific key eg C2, C3, etc.
  • controller 1 sorts the performance parts assigned to that performance terminal 2 in reverse chronological order. Read and send pronunciation data. At this time, the data may be read out at a higher speed than normal, or may be read out at a normal speed.
  • controller 1 When controller 1 is in the rewind state, controller 1 reads the performance part in reverse time order and continues to transmit sound data.
  • the note-on message and note-off message of the rewinding keyboard are input again from the performance terminal 2, transmission of the sound data is stopped.
  • Controller 1 may transmit sounding data that sounds a pseudo-scanning sound without transmitting sounding data of performance music during fast-forwarding or rewinding. Les.
  • the pseudo scan sound is, for example, a sound such as “Kyurukuru J.” Even in this case, the keystroke timing (performance song Data reading) is assumed to be fast or moving backwards.
  • Controller 1 has the same timing as the keystroke timing (reading timing of performance data) for each performance terminal 2 that is fast-forwarding or rewinding. If this happens, the transmission of pronunciation data is stopped.
  • each performance terminal 2 as described above can be performed using the operation unit 15 of the controller 1. Although not shown, it is only necessary to display the FF button and REW button individually on each performance terminal in the ensemble window of FIG.
  • each performance terminal 2 refers to the performance speed history of each performance terminal (moving average of GameTimes) and read the performance part at the quadruple speed. It may be. Further, it may be set to a quadruple speed of the performance speed of the facilitator performance terminal 2, or may be set to a quadruple speed of the tempo data described in advance in the performance music data.
  • the ensemble system plays a key on the performance terminal 2 of the facilitator by striking a specific key (for example, G2) different from the fast forward or rewind described above. It is possible to use the same keystroke timing as the timing.
  • a specific key for example, G2 keyboard
  • controller 1 has the same keystroke timing as that of performance terminal 2 of the facilitator.
  • the note-on message of the performance keyboard for example, E3
  • the same keystroke timing as the facilitator performance terminal 2 is input next time.
  • the performance data of the keystroke timing is read and the sounding data is transmitted. Therefore, even if the playing terminal has two powers; and the keying timing of the facilitator's performance terminal 2 is slower or too long, the same keying timing with one touch You can move to
  • This contact movement can also be performed using the operation unit 15 of the controller 1.
  • a “Modify” button is displayed to match the keying timing of the performance terminal 2 of the facilitator. This should be done.
  • each user can perform the performance with an easy operation of pressing a key with one finger, and the deviation of the facilitator performance terminal 2 shown on the display unit 16 is eliminated.
  • the deviation of the facilitator (standard playing terminal) from the playing terminal 2 is not a fine note unit, but the deviation of the number of keystrokes is displayed. Even so, the amount of deviation can be easily grasped.
  • the shift in the number of keystrokes is displayed, but it is also possible to display a shift in dynamics, a shift in performance nuance, and the like.
  • the dynamics deviation is calculated based on the velocity value input from each playing terminal 2, and the performance nuance deviation is calculated based on the GaugeTime value of each playing terminal 2. Goodbye, ... Industrial applicability
  • the present invention it is possible to display the amount of performance deviation from the guide (keystroke frequency deviation), and even a person unfamiliar with the operation of the instrument can easily grasp the amount of performance deviation. You can adjust your performance easily. In addition, since the role of the guide himself can easily grasp the amount of performance deviation of each performance participant, the guidance of each participant should be given as to whether it should be faster or slower. You can also adjust your own tempo for each participant.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

楽器の操作に不慣れな者であっても容易にガイド役の演奏とのズレ量を把握することができる合奏システムを提供することにある。演奏端末「Facilitator」に対応する丸印は、縦方向のラインのうち中心ラインに固定して表示される。各使用者の演奏端末(例えばPiano1)に対応する丸印は、演奏端末「Facilitator」とのズレに応じて左右に移動する。例えば演奏端末「Facilitator」よりも1小節分打鍵が遅れると、縦方向のライン1つ分左方向に丸印が移動する。半小節分(2拍分)遅れた場合は縦方向の中心ラインから左方向にライン間隔の半分だけ丸印が移動する。一方で演奏端末「Facilitator」よりも打鍵が早い場合は右方向に移動することとなる。

Description

明 細 書 合奏システム :
5 ,技術分野
この発明は、 楽器の操作に不慣れな者であっても容易に合奏に参加で きる合奏システムに関し、 特に合奏における各参加者の演奏ズレをわか
Figure imgf000003_0001
3 7 6 7 5号公報参照) や、 手本演奏の演奏タイ ミ ングと使用者の演奏 タイ ミ ングの履歴を画面上に表示して、 手本演奏との差をわかりやすく した演奏表示装置 (例えば特開 2 0 0 2 - 9 1 2 9 0号公報参照) が提 案されている。
上記の演奏支援装置および演奏表示装置は、楽譜データや手本演奏(デ モ演奏) とのズレ量を表示するものである。 したがって、 個々人の使用 者が演奏の上達のために用いるものである。
上記特開 2 0 0 0 - 2 7 6 1 4 1 号公報の電子楽器のよ う に、 複数の 使用者(参加者) が同時にリ ハビリ 等の活動を行う場合、 所定の人数(例 えば 5人程度) で 1 つのグループを形成し、 ファシリ テータ (ガイ ド役) が各参加者をガイ ドするこ とが多い。 この場合、 ファシリ テータの演奏 に合わせて各参加者が演奏する。 上記の演奏支援装置および演奏表示装 置は、 楽譜データや機械によるデモ演奏とのズレ量を表示するこ とはで きるが、 ガイ ド役などの人間の演奏とのズレ量を表示できるものではな かった。
本発明の目的は、 楽器の操作に不慣れな者であっても容易にガイ ド役 の演奏とのズレ量を把握するこ とができる合奏システムを提供すること にある。 発明の開示
上記目的を達成するために、 本発明の合奏システムは、 演奏操作を行 うための少なく と も 1 つの演奏操作子を各々備える複数の演奏端末と、 少なく と も 1 つの音源と、 前記複数の演奏端末および前記少なく と も 1 つの音源に接続され、 各演奏端末を制御するコ ン ト ローラと、 からなる 合奏システムであって、 前記コン ト ローラは、 複数の演奏パー トからな る演奏曲データを記憶する記憶丰段と、 演奏の開始、 および終了を指示 するための操作手段と、 前記複数の演奏パー トを前記複数の演奏端末に 割り 当て、 各演奏端末の演奏操作子の操作態様に応じて、 その演奏端末 に割り 当てられている演奏パー トを読み出し、 当該読み出した演奏パー トのデ一タを前記音源に出力する演奏御御手段と、 前記複数の演奏端末 のう ちのガイ ド役用演奏端末が割り 当てられている演奏パー トの読み出 し進度どその他の各演奏端末が割り 当てられている演奏パー トの読み出 し進度とのズレを検出するズレ検出手段と、 前記読み出し進度のズレを 表示する表示手段と、 を備えるこ とを特徴とする。
本発明では、 使用者がコン ト ロ一ラの操作手段を用いて演奏の開始を 指示し、 演奏端末の演奏操作子で演奏操作を行う。 演奏端末の演奏操作 子は、 例えば電子ピアノ の鍵盤である。 いずれか一つの鍵盤を打鍵する と操作信号がコ ン ト ローラに送信される。 コ ン ト ローラは受信した操作 信号に基づいて発音指示を音源に送信する。 音源は発音指示に応じて楽 音を発音する。 演奏端末の う ち、 いずれか一つはファ シリテ一タ用とな る。 コン ト ローラは、 各演奏端末から操作信号が入力されたとき、 ガイ ド役用 (例えばファシリテータ用) 演奏端末との入力回数ズレ (曲頭か らの打鍵回数の差) を検出する。 各演奏端末の打鍵回数のズレはデイス プレイ等の表示部に表示する。
好ま しく は、 前記音源は、 前記複数の演奏端末の各々に内蔵され、 前 記コ ン ト ローラの演奏制御手段は、 前記読み出した演奏パー トのデータ を、 その演奏パー トが割り 当てられている演奏端末に内蔵された音源に 出力する。
- この好ま しい態様では、 コ ン ト ローラは演奏端末から受信した操作信 号に基づいて、 その演奏端末に割り 当てられている演奏パー トを読み出 し、 当該読み出した演奏パー トのデータを当該演奏端末に内蔵された音 源に送信する。 演奏端末の内蔵音源は受信した発音指示に応じて楽音を 発音する。 これによ り 、 各演奏端末において、 各自の演奏パー トが発音 されるこ と となる。
好ま しく は、 前記コン ト 口一ラは、 少なく と も 1 つの演奏端末に割り 当てられている演奏パー トの早送り指示を行うための早送り指示手段を さ らに備え、 前記コン ト ローラの演奏制御手段は、 前記早送り指示手段 で早送り指示が行われたと きに、 当該演奏端末に割り 当てられている演 奏パー トの高速読み出しを実行する。
この好ま しい態様では、 早送り指示が行われる と、 コン ト ローラは演 奏端末の演奏パー 卜の高速読み出しを実行し、 音源に読み出された演奏 パー トのデータを送信する。 音源は高速に読み出された演奏パー トのデ ータに応じて楽音を発音するので、早送り されて発音される こ と となる。 これによ り 、 各使用者の演奏について、 いつでも周 り の演奏者の演奏に 追いつかせるこ とができる。 なお、 ガイ ド役用演奏端末を含めて全ての 演奏端末を同時に指定して早送り指示を行う こ と もできる。
好ま しく は、 前記各演奏端末は、 自 己の演奏端末に割り 当てられてい る演奏パー 卜の早送り指示を行う ための端末早送り指示手段を備え、 前 記コン ト ローラの演奏制御手段は、 前記端末早送り指示手段で早送り指 示が行われたと きに、 当該演奏端末に割り 当てられている演奏パー トの 高速読み出しを実行する。
この好ま しい態様では、 各演奏端末で自己の演奏端末の早送り指示が 行われる と、 コン ト ローラはその演奏端末の演奏パー トの高速読み出し を実行し、 音源に読み出された演奏パー トのデータを送信する。 音源は 高速に読み出された演奏パー トのデータに応じて楽音を発音するので、 早送り されて発音されるこ と となる。 これによ り 、 各使用者は、 いつで も周 り の演奏者の演奏に追いつく こ とができる。
好ま しく は、 前記コン ト ローラは、 少なく と も 1 つの演奏端末に割り 当てられている演奏パー トの巻き戻し指示を行う ための巻き戻し指示手 段をさ らに備え、 前記コ ン ト ローラの演奏制御手段は、 前記巻き戻し指 示手段で巻き戻し指示が行われたと きに、 当該演奏端末の過去に読み出 した演奏パー トを逆順に読み出す。
この好ま しい態様では、 卷き戻し指示が行われる と、 コ ン ト ローラは 演奏端末の演奏パ一 トを時間逆順に読み出し、 音源に読み出された演奏 パー トのデ一タを送信する。 音源においては通常と逆順に発音されるこ と とな り 、 巻き戻し再生が行われる。 これによ り 、 各使用者の演奏につ いて、 周 り の演奏者よ り も演奏が進みすぎていた場合に現在のタイ ミ ン グに戻すこ とができる。 '
好ま しく は、 前記各演奏端末は、 自 己の演奏端末に割り 当てられてい る演奏パー トの巻き戻し指示を行う ための端末巻き戻し指示手段を備え、 前記コン ト ローラの演奏制御手段は、 前記端末巻き戻し指示手段で巻き 戻し指示が行われたと きに、 当該演奏端末の過去に読み出 した演奏パ一 トを逆順に読み出す。
この好ま しい態様では、 各演奏端末で自己の演奏端末の巻き戻し指示 が行われる と、 コ ン ト ローラはその演奏端末の演奏パー トを時間逆順に 読み出し、 音源に読み出された演奏パー トのデータを送信する。 音源に おいては通常と逆順に発音されるこ と となり 、巻き戻し再生が行われる。 これによ り 、 各使用者は、 周 り の演奏者よ り も演奏が進みすぎていた場 合に現在のタイ ミ ングに戻ることができる。
好ま しく は、 前記コ ン ト ローラは、 少なく と も 1 つの演奏端末と前記 ガイ ド役用演奏端末との演奏ズレをなく す指示を行うためのズレ修正指 示手段を備え、 前記コ ン ト ローラの演奏制御手段は、 前記ズレ修正指示 手段で前記演奏ズレをなくす指示が行われたと きに、 前記ガイ ド役用演 奏端末に割り 当てられている演赛パ一 卜の読み出し進度と前記演奏端末 に割り 当てられている演奏パー 卜の読み出し進度とがー致するよ う に、 前記演奏端末に割り 当てられている演奏パー トを読み出す。
この好ま しい態様では、 コン ト ローラにおいて、 いつでも使用者 (生 徒役) の演奏端末とガイ ド役用演奏端末との演奏ズレをキャ ンセルする こ とができる。
好ま しく は、 前記各演奏端末は、 自 己の演奏端末と前記ガイ ド役用演 奏端末との演奏ズレをなくす指示を行うための端末ズレ修正指示手段を 備え、 前記コ ン ト ローラの演奏制御手段は、 前記端末ズレ修正指示手段 で前記ズレをなくす指示が行われたと きに、 前記ガイ ド役用演奏端末に 割り 当てられている演奏パー 卜の読み出し進度と前記演奏端末に割り 当 てられている演奏パー トの読み出し進度とがー致するよ うに、 前記演奏 端末に割り 当てられている演奏パー トを読み出す。
この好ま しい態様では、 各演奏端末において、 いつでも使用者 (生徒 役) の演奏端末とガイ ド役用演奏端末との演奏ズレをキャンセルするこ とができる。 — . 図面の簡単な説明
図 1 は、 演奏システムの構成を示すブロ ック図である。
図 2は、 コン ト ローラの構成を示すブロ ック図である。
図 3は、 演奏端末の構成を示すブロ ック図である。
図 4は、 楽曲データの一例を示す図である。
図 5は、 パ一 ト割り 当てテーブルの一例を示す図である。
図 6 は、 メ イ ン操作ウィ ン ドウを示す図である。
図 7 は、 合奏ウィ ン ドウを示す図である。
図 8 Aは、 拍打数のセ ッティ ングを示す図であり 、 図 8 Bは、 打鍵タ イ ミ ングとなる拍子 ( 1拍目、 3拍目) と打鍵タイ ミ ングとならない拍 子 ( 2拍目、 4拍目) のアイ コ ン表示例を示す図である。
図 9 は、 現在の拍打の推移を示す図である。
図 1 0 は、 演奏端末 「Fac i l i tatorJ との拍打のズレを説明する図であ る。
図 1 1 は、 「修正」 ボタ ンを含む合奏ウィ ン ドウを示す図である。
発明を実施するための最良の形態
以下、 本発明の実施の形態を図面を参照しながら詳説する。
図 1 は、 合奏システムの構成を示すブロ ック図である。 同図に示すよ —う に、 この合奏システムは、 コ ン ト ローラ 1 と 、 コ ン ト ローラ 1 に M l
D I イ ンタフェースボックス 3 を介して接続される複数 (同図において は 6台) の演奏端末 2 A〜 2 F とを備えている。 複数の演奏端末 2のう ち、 演奏端末 2 Aはファ シ リ テ一タ (ガイ ド役) 用演奏端末となり 、 演 奏端末 2 B〜 2 Fは参加者 (生徒役) 用演奏端末となる。 演奏端末 2 B 〜 2 Fを使用する 5人の参加者は、 常に同じ演奏端末 2 を使用する。 こ れによ り 、 フ ァ シリ テ一タは演奏端末で参加者の識別が可能となる。
コ ン ト ローラ 1 は、 例えばパ一ソナルコ ンピュ一タによ り構成され、 このパーソナルコンピュータに搭載されたソフ ト ウェアによって各演奏 端末 2の制御およびデータの収集を行う。 コン ト ローラ 1 は複数パー ト からなる演奏曲データを記憶している。 これらのパー トは、 1 または複 数のメ 口ディバ一 ト、リ ズムパー ト、及び伴奏パー ト等からなっている。 コン ト ローラ 1 は、 各パー ト (または複数のパー ト) の発音データをそ れぞれの演奏端末 2に送信する、 後述の通信部 1 1 を備えている。
演奏端末 2 は、 使用者が演奏操作を行う と と もに、 この使用者の演奏 操作に応じた楽音を発生するものであ り 、 例えば電子ピアノ等の電子鍵 盤楽器によ り構成される。 本実施の形態では、 コント ローラ 1 と U S B で接続されている M I D I イ ンタ フェースボックス 3 を用い、 各演奏端 末 2 を別々の M I D I 系統で接続している。 同図においては演奏端末 2 Aをファシリ テ一タ用の演奏端末とする。 ファ シリ テ一タ用の演奏端末 の指定はコ ン ト ローラ 1 にて行う。 なお、 演奏端末 2 は電子ピアノ に限 らず、 電子ギター等の他の形態の電子楽器であってもよい。 また、 外観 上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよ レヽ
なお、 演奏端末 2 が音源を内蔵する必要はなく 、 独立した音源をコン トローラ 1 に接続してもよい。 この場合、 コン ト ローラ 1 に接続する音 源の数は 1 つであってもよいし、 演奏端末 2 と同 じ数であってもよい。 演奏端末 2 と同じ数の音源を接続する場合、 コ ン ト ローラ 1 はそれぞれ の音源と演奏端末 2 を対応付けて演奏曲データの各パ一 トを割り 当てる よ う にすればよい。
この合奏システムは、 コン ト ロ一ラ 1 が記憶している演奏曲データの 複数の演奏パー トを、 複数の演奏端末 2 にそれぞれ割り 当て、 各演奏端 末 2が独自に割り 当てられた演奏パー 卜の自動演奏を進めていく。 使用 者が演奏端末 2 を用いて演奏操作 (例えば電子ピアノ の鍵盤を打鍵) を 行う と、 コン ト ローラ 1 にテンポと タイ ミ ングの指示が送信される。 コ ン ト ローラ 1 は、 入力されたテンポと タイ ミ ングの指示に基づいてその 演奏端末 2 に割り 当てた演奏パー トの各音符の発音指示を演奏端末 2に 送信する。 演奏端末 2は受信した発音指示に基づいて自動演奏を行う。 各演奏端末 2 を使用する生徒がファシリ テータに合わせてテンポをとる こ とで合奏が成立する。 以下、 コ ン ト ローラ 1 と演奏端末 2 の構成につ いて詳細に説明する。
図 2は、 コ ン ト ローラ 1 の構成を示すブロ ック図である。 同図に示す よ う に、 コン ト ローラ 1 は、 通信部 1 1 、 制御部 1 2 、 H D D 1 3 、 R AM 1 4、 操作部 1 5、 および表示部 1 6 を備えている。 制御部 1 2に は通信部 1 1 、 H D D 1 3、 R AM I 4、 操作部 1 5および表示部 1 6 が接続されている。
通信部 1 1 は、 演奏端末 2 と通信を行う回路部であり 、 U S Bイ ンタ フェース (不図示) を有 している。 この U S Bイ ンタ フェースには、 M I D I イ ンタ フェースボッ ク ス 3が接続され、 通信部 1 1 はこの M I D I イ ンタ フェースボック ス 3及び M I D I ケーブルを介して 6台の演奏 端末 2 と通信する。 H D D 1 3 は、 コン ト ローラ 1 の動作用プロ グラム や、 複数パー トからなる演奏曲データを記憶している。
制御部 1 2 は、 H D D 1 3 に記憶されている動作用プロ グラムを読み 出してワーク メモリ である R AM I 4 に展開し、 パー ト割り 当て処理 5 0、 シーケンス処理 5 1 、 および発音指示処理 5 2等を実行する。 パー 卜割り 当て処理 5 0では、 制御部 1 2 は演奏曲データの各演奏パー トを 複数の演奏端末 2 に割り 当てる。 シーケンス処理 5 1 では、 制御部 1 2 は各演奏端末 2から受信したテンポ、 タイ ミ ングの指示に応じて演奏曲 データの各演奏パー トをシーケンス (各音の音高、音長等の決定)する。 発音指示処理 5 2では、 制御部 1 2はシーケンス処理 5 1 で決定した各 音の音高、 音長等を発音指示データ と して演奏端末 2 に送信する。
また、 制御部 1 2は、 各演奏端末の拍打のズレ (打鍵タイ ミ ング) を 検出するズレ検出部 6 0 を備えている。
操作部 1 5 は、 使用者 (主にファシリ テ一タ) がこの演奏システムの 動作指示を行うためのものである。 フ ァ シリ テータは、 操作部 1 5 を操 作し、 例えば演奏する演奏曲データを指定したり 、 各演奏端末 2の演奏 パー 卜を割り 当てたりする。 表示部 1 6 は、 ディ スプレイ (モニタ) で あり 、 フ ァ シリ テータゃ各参加者はこの表示部 1 6 を見ながら演奏操作 ' を行う。 詳細は後述するが、 表示部 1 6 には合奏を行う ための様々な情 報が表示される。 '
図 3 は、 演奏端末 2の構成を示すプロ ック図である。 同図に示すよ う に、 演奏端末 2 は、 通信部 2 1 、 制御部 2 2、 演奏操作子である鍵盤 2 3、 音源 2 4、 およびス ピーカ 2 5 を備えている。 制御部 2 2 には通信 部 2 1 、 鍵盤 2 3、 および音源 2 4が接続されている。 また、 音源 2 4 にはス ピーカ 2 5が接続されている。
通信部 2 1 は、 M I D I イ ンタフェースであり 、 M I D I ケーブルを 介してコン ト ローラ 1 と通信する。 制御部 2 2は、 演奏端末 2 を統括的 に制御する。 鍵盤 2 3は、 例えば 6 1 鍵や 8 8鍵の鍵数を有し、 5 〜 7 オク ターブの音域の演奏が可能であるが、 この合奏システムでは鍵を区 別せずにノー トオン/ノー トオフメ ッセージ及び打鍵強さ (Ve l oc i t y) のデータのみを用いる。 すなわち各鍵には、 オン/オフを検出するセン サと打鍵の強さを検出するセンサとが内蔵されており 、 鍵盤 2 3 は各鍵 の操作態様 (どの鍵がどのよ うな強さで打鍵されたか等) に応じて操作 信号を制御部 2 2に出力する。 制御部 2 2は、 入力された操作信号に基 づき、 通信部 2 1 を介してコ ン ト ローラ 1 にノー トオンメ ッセージゃノ ー トオフメ ッセージを送信する。 音源 2 4は、 制御部 2 2の制御に応じ て楽音波形を生成し、 音声信号と してス ピーカ 2 5 に出力する。 ス ピー 力 2 5 は、音源 2 4から入力された音声信号を再生し、楽音を発音する。 なお、 上述したよ うに、 音源 2 4 とス ピーカ 2 5は演奏端末 2に內蔵し ていなく てもよレ、。音源 2 4 とス ピーカ 2 5 をコ ン ト ローラ 1 に接続し、 演奏端末 2 と異なる場所から楽音が発音されるよ う に してもよい。 各演 奏端末 2 と同じ数の音源をコ ン ト ローラ 1 に接続してもよいが、 単一の 音源を用いてもよい。
上記の動作では、 鍵盤 2 3 を打鍵したとき、 制御部 2 2はノー トオン /ノー トオフメ ッセージをコ ン ト ローラ 1 に送信 (口一カルオフ) し、 鍵盤 2 3によるノー トメ ッセージではなく 、 コ ン ト ロ一ラ 1 からの指示 に応じて楽音を発音するが、 演奏端末 2は上記の様な動作とは別に、 一 般的な電子楽器と して使用するこ と も可能である.。 鍵盤 2 3 を打鍵した と き、制御部 2 2はノー トメ ッセージをコン ト ローラ 1 に送信せずに(口 —カルオン) 、 当該ノー トメ ッセージに基づいて音源 2 4 に楽音を発音 するよ うに指示するこ と も可能である。 口一カルオン、 口一カルオフは 使用者がコ ン ト ローラ 1 の操作部 1 5 を用いて切替えてもよいし、 演奏 端末 2の端末操作部 (図示せず) で切替えてもよい。 また、 一部の鍵盤 のみ口一カルオフ し、 他の鍵盤はローカルオンとなるよ う に設定するこ と も可能である。
次に、 上記のよ うな合奏システムを用いて合奏を行うための動作につ いて説明する。 使用者 (特にファ シリ テータ) は、 コ ン ト ローラ 1 の操 作部 1 5 を用いて演奏曲データを選択する。 演奏曲データは M I D I 規 格に基づいて予め作成されたデータ (スタ ンダー ド M I D I ) であり 、 コ ン ト ローラ 1 の H D D 1 3 に記憶されている。 この楽曲データの一例 を図 4 に示す。 同図に示すよ う に、 演奏曲データは、 複数の演奏パー ト からな り 、 各演奏パー トを識別する識別情報と、 各演奏パー トの演奏情 報とを含んでいる。
使用者が演奏曲データの選択を行う と、 コン ト ローラ 1 は接続されて いる各演奏端末 2のそれぞれに演奏パー トを割り 当てる。 どの演奏端末 にどの演奏パー トを割り 当てるかは、 予めテーブルを規定しておく。 図 5 は、 演奏パー ト割り 当てテーブルの一例を示す図である。 同図に示す よ う に、 演奏パー ト 1 には、 M I D I ポー ト 0 (ファ シリ テ一タ用演奏 端末) が対応しており 、 例えば図 1 においては演奏端末 2 Aに演奏パー ト 1 が割り 当てられる。 M I D I ポー トは M I D I イ ンタ フェースボッ クス 3のポー ト番号を示しており 、 各演奏端末 2 はその接続されている M I D I ポー トで識別されている。 以下同様に演奏パー ト 2 には M I D I ポー ト 1. (ピアノ. 1 ) が対応し、 例えば図 1 においては演奏端末 2 B に演奏パー ト 2が割り 当てられる'。 このよ う に、 各演奏端末 2にそれぞ れ自動的に演奏パー トが割り 当てられる。 この演奏パー ト割り 当てテー ブルは事前にファシリ テータがコン ト ローラ 1 の H D D 1 3 に登録した ものである。 なお、 ファシリ テータがコン ト ローラ 1 の操作部 1 5 を用 いてマニュアル選択するよ う にしてもよレ、。
なお、 各演奏端末 2が U S Bポー トに接続されている場合は、 各演奏 端末 2 を U S Bポー ト番号で識別するよ うにすればよレ、。
ファシリ テータが演奏曲データを選択し、 コン ト ローラ 1 によ、り各演 奏端末 2 に演奏パ一 トが割り 当てられる と、 ファシリ テータによってコ ン ト ローラ 1 の操作部 1 5 は演奏開始スタンバイの指示を入力する。 こ こで言う演奏開始スタンバイ とは実際に楽音を発生する意味ではなく 、 コン ト ローラ 1 が H D D 1 3から R A M I 4へ演奏曲データを読み出 し て演奏動作を行うための準備状態とするこ とである。
演奏開始スタ ンバイの指示が操作部 1 5 に入力され、 コント 口一ラ 1 が演奏準備を行う と、 各演奏端末 2では演奏が可能となる。 この合奏シ ステムにおいては、 複数の使用者がファ シリ テ一タ (合奏リ ーダ) の演 奏に合わせて演奏操作を行う。 つま り 、 単にお手本演奏(機械デモ演奏) に合わせて演奏するのではなく 、 ファシリ テ一タの演奏 (人間の演奏) に合わせて各使用者が演奏を行うので、 実際に合奏をしているという実 感を得るこ とができる。
合奏中における合奏システムの動作について説明する。 各使用者が演 奏端末 2の操作子 (鍵盤) 2 3 を指で押すと、 制御部 2 2は鍵盤 2 3 を 押した強さに応じてノー 卜オンメ ッセージをコン ト ローラ 1 に送信する。 ノー トオンメ ッセージには打鍵の強さ(Ve l oc i t y)等の情報が含まれる。 また、 鍵盤 2 3 を元に戻す (指を離す) と、 制御部 2 2は、 ノー トオフ メ ッセージをコン ト ローラ 1 に送信する。 コ ン ト ローラ 1 は、 演奏端末 2から受信したノ一 トオンメ ッセージ及びノー トォフメ ッセージに基づ いて、 その演奏端末 2 'に割り 当てた演奏パー トの う ち、 所定長さ分 (例 えば 1拍分) の演奏曲データの各音の音高、 音長等を決定し、 その音高、 音長等が決定された演奏曲データを発音指示データ と して演奏端末 2に 送信する。 発音指示データには、 発音すべきタイ ミ ング、 音長、 強度、 音色、 効果、 音高変化 (ピッチベン ド) や、 テンポ等が含まれる。
コン ト ローラ 1 は、 ノー トオンメ ッセージを受信してからノー トオフ メ ッセージを受信するまでの時間に基づいて上記発音指示データを決定 する。 具体的には、 ノー トオンメ ッセージが入力されたときに、 演奏曲 データの う ち該当する演奏パー トの所定長さ分 ( 1拍分等) の演奏情報 を読み出して発音すべきタイ ミ ング、 音色、 効果、 音高変化等を決定す る。 また、 コン ト ローラ 1 は、 ノー トオンメ ッセージの Ve l o c i t y 情報 から発音強度を決定する。 演奏曲データの演奏情報には音量を示す情報 が含まれており 、 この音量に Ve l oc i t y 情報を乗箅して強度を決定する。 つま り 、 演奏曲データには、 その曲中のボリ ューム表現 (音の強弱) を 考慮した音量情報が予め含まれているが、 各使用者が鍵盤を押した強さ に応じた強弱表現が追加され、 発音強度が決定される。
コン ト ローラ 1 は、 ノー トオフメ ッセージが入力されたと き、 ノー ト オンメ ッセージが入力されてからの.時間を測定する。 ノー トオフメ ッセ ージが入力されるまでは、 最初に発音した楽音をそのまま発生し、 ノー トオフメ ッセージが入力されたと きにその拍分のテンポ、 各音の音長を 決定して次の楽音を発音する。
なお、 ノー トオン力 らノー トオフまでの時間 (Ga t eT i me とする) から 単純にテンポを決定してもよいが、 以下のよ う にしてテンポを決定して もよい。 すなわち、 複数回(直近から数回前)の打鍵について、 Ga t eT i me の移動平均を算出し、 これに時間による重み付けを行う。 直近の打鍵に ついて最も重み付けを大き く し、 過去の打鍵になるほど重み付けを小さ く する。 このよ う に してテンポを決定する こ と で、 ある打鍵の時のみ Ga t eT i rae が大き く 変化したどしても突然にテンポが変化せず、 曲の流 れに応じて違和感無く テンポ変化を行う こ とができる。
演奏端末 2 の制御部 2 2は、 上記のよ う にコン ト ローラ 1 が決定した 発音指示データを受信し、 音源 2 4に楽音波形の生成を指示する。 音源 2 4は、 楽音波形を生成し、 ス ピーカ 2 5から楽音を再生する。 各使用 者が鍵盤 2 3 を押す毎に上記の処理が繰り返され、 例えば 1 拍毎に鍵盤 2 3 を押すこ とで曲の演奏を行う こ とができる。
なお、 上記のよ う に、 ノー トオフメ ッセージが入力されるまでは、 最 初に発音した楽音をそのまま発生するので、 使用者が鍵盤 2 3から指を 戻すまでは同一楽音を鳴ら し続けるこ と となり 、 この合奏システムにお いては、 音を延ばす演奏表現(フェルマータ)を実現することができる。 また、 上記のよ う にして Ga t eT i me の移動平均によ りテンポを決定す るこ とで、 以下のよ う な演奏表現を実現するこ と もできる。 例えば、 あ る打鍵の時のみ鍵盤 2 3 を短く ボンと押された場合、 その拍分の各音の 音長を短く し、 一方で鍵盤 2 3がゆった り と押された場合その拍分の各 音の音長を長くする。 これによ り 、 テンポは大き く 変化しないが各音の 歯切れをよく する演奏表現 (スタ ッカー ト) を実現したり 、 テンポを大 き く 変化声せずに音の長さを保つ演奏表現 (テヌー ト) を実現した りす るこ とができる。
なお、 本実施の形態においては演奏端末 2 A〜 2 Fのいずれの鍵盤 2 3 を打鍵したと してもノー トオンメ ッセージ、 ノー トオフメ ッセージが コン ト ローラ 1 に送信されるが、 上記のスタ ッカー トゃテヌー トが効く 鍵盤と効かない鍵盤を分けても よレ、。 コ ン ト ローラ 1 は、 特定の鍵盤 (例えば E 3 ) からのノー トオンメ ッセージ、 ノー トオフメ ッセージが 入力された場合のみ、 テンポを保ちながら音長を変化させるよ う にすれ ばよい。
次に、 表示部 1 6 に表示されるユーザイ ンタ フェースについて説明す る。 図 6 は、 表示部 1 6 に表示ざれるメ イ ン操作ウィ ン ドウである。 こ のウ ィ ン ドウの上部テキス ト フィ ール ドには使用者が選択した演奏曲デ ータ名が表示される。 「 Set ting J フィール ド内にはそれぞれの演奏端末 (Facilitator, Pianol〜5) が表示されており 、 各演奏端末毎に出欠を 選択するプルダウンメニューと、 演奏パー トを割り 当てるラジオボタン が表示されている。 演奏端末 (Facilitator, Pianol〜5) は、 M I D I イ ンタフェースボックス 3 の M I D I ポー トにそれぞれ対応付けられて いる。
出欠のプルダウンメニューは生徒の出欠に応じてファ シリ テ一タが選 択入力する。 ラジオボタンは、 演奏曲データにおいて演奏パー トが割り 当てられている演奏端末のみ表示される。
この図における例では、 選択した演奏曲データに演奏パー ト 1 、 2、 3、 および 1 0が設定されており 、 この演奏曲データを選択する と、 上 記図 5 のテーブルに従って順に演奏端末 「Facilitator」 、 「Pianol」 、 「Piano2」 、 および 「Piano3」 が演奏パー ト 1 、 2、 3、 および 1 0 に 自動的に割り 当てられる。 なお、 同図中では選択した演奏曲データに 4 つの演奏パー トのみが含まれているため、 演奏端末 「Facilitator」 、 お よび 「Pianol〜3」 にのみ演奏パ一 卜が割り 当てられているが、 例えば演 奏曲データ に 6 つの演奏パー 卜 が含まれてい る場合は、 演奏端末 「Facilitator」 および 「Pianol〜5」 のそれぞれに演奏パー トが割り 当 てられる。 M I D I ポー ト (演奏端末) よ り も演奏パー トの数が多い場 合は、 演奏端末 「Facilitat0rJ に複数の演奏パー トを割り 当てる。 こ こ で、 コ ン ト ローラ 1 を操作する使用者 (ファ シ リ テータ) がラジオボタ ンを選択する こ とで各演奏パー トを好みの演奏端末にマニュアル選択す るこ と も可能である。 また、 「FacilitatorOnlyJ のチェ ックボックスを 選択する と全ての演奏パー トが演奏端末 「Facilitator」 に割り 当てられ る。 なお、 プルダウンメニューが 「欠席」 と された演奏端末にはラジオ ボタンが表示されず、 演奏パー トが割り 当てられない。
また、 図 5 のテーブルに基づいて自動で演奏パー トの割り 当て 行う 場合も 「出席」 「欠席」 のプルダウンメニューについて、 「欠席」 が選 択されている場合、 その演奏端末に割り 当てられるべき演奏パー トは演 奏端末 「Facilitator」 に割り 当てられる。 なおこの場合、 「欠席」 の演 奏パー 卜を音色や役割関係の近い演奏パー ト (例えば ドラムスに対して ベース、 弦楽器群等) が割り 当てられている他の演奏端末に代替して割 り 当てるよ う にしてもよい。 関連する演奏パー トは予めテーブルによ り 規定しておけばよい。
演奏パー トの割り 当て後に、 ウィ ン ドウ中央左部に表示されている演 奏コン ト ロールボタ ンの う ち Start ボタンを押下する と演奏開始スタ ン バイ とな り、 図 7に示す合奏ウィ ン ドウが表示部 1 6に表示される。 こ のウイ ン ドウにおいても上部テキス ト フィ ール ドには選択した演奏曲デ ータ名が表示される。 ウィ ン ドウ上部右側には選択している演奏曲デ一 タの小節数と現在演奏中の小節が表示されている。 ウィ ン ドウ中央上部 に表示されている拍打数フィ一ル ド (BeatSetting) には 1小節内の拍打 数を設定するラジオボタンが表示されている。 同図においては 1 小節が 4拍子 Z 4分の曲データについて演奏をするので、 拍打数を 4に設定す る と 1 拍毎に打鍵するこ と となる。 また、 図 8 Aに示すよ う に、 この演 奏曲において拍打数 2のラジォボタンを選択する と、 1拍おきに打鍵す るこ と となり.、 1拍目、 3拍目が打鍵タイ ミ ングとなる。 この場合、 コ ン ト ローラ 1 は、 演奏端末 2からノー トオンメ ッセージと ノー トオフメ ッセージが送信される と、 2拍分の発音指示データを返信する。 つま り 、 1 回の打鍵で 2拍分の演奏がされるこ とになる。
図 7 において、 合奏ウィ ン ドウ中央左側には各演奏端末(Facilitator, Pianol、 Piano2、 Piano3) 毎に現在の小節数、 小節内の拍子数 (小節内 で打鍵すべき回数) 、 および現在の拍打 (現在の打鍵タイ ミ ング) が表 示される。 打鍵すべき回数は同図に示すよ う に内部に数字が記入された 四角状のアイ コ ンで表示され、 現在の拍打は立体四角状のアイ コンで表 示される。 表示方式は、 この例のアイ コ ンに限るものではなく 、 他の形 状のアイ コンであってもよい。 なお、 図 8 Bに示すよ う に、 打鍵タイ ミ ングとならない拍子 ( 2拍目、 4拍目) は丸数字等、 別の形状のアイ コ ンに変更して表示する。
使用者が打鍵する と、 現在の拍.打は図 9 に示すよ うに 1拍ずつ推移す る。 つま り 、 打鍵毎に 1拍目、 2拍目、 3拍目、 4拍目 と立体四角状の アイ コ ンが変更される。 この例における演奏曲データは、 4拍子ノ 4分 の曲データであるため、 4拍目の次の打鍵を行う と 1拍目に戻り 、 1小 節進行するこ と となる。
コ ン ト ローラ 1 の制御部 1 2は、 各演奏端末の拍打のズレ (打鍵タイ ミ ング) を検出する。 よ り 具体的には、 制御部 1 2は、 ファシリ テータ の演奏端末 2が割り 当てられている演奏パー 卜の読み出し進度とその他 の各演奏端末が割り 当てられている演奏パー トの読み出し進度とのズレ を検出する。 この検出結果を利用 して、 図 7のウィ ン ドウが表示部 1 6 に表示される。
図 7において、 ウィ ン ドウ中央右側には演奏端末 「Facilitator」 との 拍打のズレを示すフィール ドが表示されている。 このフィール ドには縦 方向に複数のライ ン (例えば 5本) が表示され、 それぞれの演奏端末に 対応して横方向にライ ンが表示されている。 また、 それぞれの演奏端末 に対応して丸印が表示されて-いる。 この丸印が演奏端末 「Facilitator」 との拍打のズレを示す。
図 1 0は、 演奏端末 「Facilitator」 との拍打のズレを説明する図であ る。 同図に示すよ う に、 演奏端末 「Facilitator」 に対応する丸印は、 縦 方向のライ ンのう ち中心ライ ンに固定して表示される。 各使用者の演奏 端末 (例えば 「Pianol」 ) に対応する丸印は、 演奏端末 「FacilitatorJ と の 拍 打 の ズ レ に 応 じ て 左 右 に 移 動 す る 。 例 え ば 演 奏 端 末 「Facilitator」 よ り も 1小節分 (この例においては 4拍分) 打鍵が遅れ る と、 同図に示すよ う に縦方向のライ ン 1 つ分左方向に丸印が移動する。 半小節分 ( 2拍分) 遅れた場合は縦方向の中心ラインから左方向にライ ン間隔の半分だけ丸印が移動する。 一方で、 演奏端末 「Facilitat0r」 よ り も打鍵が早い場合は丸印が右方向に移動するこ と となる。 同図におい ては中心ライ ンから左右に 2 ライン表示されているので、 2小節分の拍 打のズレが表示できること となる。 2小節以上拍打のズレが発生した場 合は左右端のライ ン上でアイ コンを変更する (例えば四角状のアイ コン に変更する) 。 このよ う にして、 各使用者はファ シリ テ一タ との演奏 ( 拍打) のズレを容易に認識するこ とができる。
なお、 基準となる演奏端末は演奏端末 「Facilitator」 に限るものでは ない。 複数の演奏端末 2の う ち、 いずれか 1 つを基準と してその演奏端 末 2 との拍打のズレ量を表示す:るよ う に してもよレ、。
また、 上記演奏端末 「Facilitator」 との拍打のズレを示すフィ ール ド は、 コ ン ト ローラ 1 の表示部 1 6 に表示する例に限らず、 各演奏端末 2 に設置した演奏端末用の表示部 (図示せず) に表示するよ う にしてもよ レ、。 このよ う に、 各演奏端末 2の拍打のズレ、 即ち打鍵回数のズレがー目 に確認できるので、 各参加者は、 自分がどの程度ファ シリテ一タ と演奏 ズレが有るか容易に確認できる。 また、 ファシリ テータ 自身も各参加者 の演奏ズレを容易に把握できるので、 各参加者にもっ と速く するべきか 遅くするべきかの指導を行う こ とができる。 また、 フ ァ シリ テ一タが各 参加者の演奏ズレの状況に応じて演奏のテンポを変えること もできる。 この場合でも、 図 1 0に示す演奏端末 「Facilitator」 に対応する丸印は 中心ライ ンに固定して表示され、 各参加者に対応する丸印は、 テンポ調 節された演奏端末 「 Facilitator J の演奏とのズレに応じて左右に移動す る。 基準と なるテ ンポが変動 しても、 ウ ィ ン ドウ表示上は演奏端末 「Facilitator」 に対応する丸印が中心位置に固定され、 各参加者の演奏 を示す丸印がその基準に対する相対的なズレと して表示される。 したが つて、 デモ演奏 (機械自動演奏) を手本と した場合に比べて、 よ り参加 者本位の合奏を楽しむこ とが可能となる。
図 7 において、 ウィ ン ドウ中央左部に表示されている演奏コン ト口一 ルボタ ンの う ち、 Pauseボタンを押下する と演奏が一時停止、すなわち、 各演奏端末 2 で打鍵しても楽音が発音されない状態となる。 コ ン ト ロー ラ 1 は、 Pause ボタンが押下され、 一時停止状態のときは、 各演奏端末 2からノー トオンメ ッセージが入力された場合であっても各演奏端末 2 に発音データを送信しない。この状態で Pauseボタンが再度押下される、 または Start ボタンが押下される と、 上記の一時停止状態を解除し、 ノ ー トオンメ ッセージが受信された場合は発音データを対応する演奏端末 2に送信する。
演奏コン ト ロールボタンの う ち Stop ボタンを押下する と演奏が終了 し、 図 6 に示したメイ ン操作ウィ ン ドウに移行する。 なお、 図 7 に示す ウイ ン ドウ上側右部に表示されている Fold ボタンを押下する と、演奏を 終了 しないで (現在の拍を維持したまま) 図 6 に示したメイ ン操作ウイ ン ドウに移行する。メイ ン操作ウイ ン ドウにおいて Fo l dボタンを再度押 下する と、 図 7 の合奏ウィ ン ドウに戻る ものとする。
図 7の演奏コン ト ロールボタンのう ち、 FFボタ ンを押下すると早送り 状態となる。 コ ン ト ローラ 1 は、 FFボタ ンが押下され、 早送り状態とな つた場合は、 接続されている全ての演奏端末 2 に割り 当てられている演 奏パー トを通常よ り も高速 (例えば 4倍速) に読み出し、 発音データを 各演奏端末 2 に送信する。 コン ト ローラ 1 は、 早送り状態となっている 場合は発音データを送信し続ける。 再度 FFボタ ンを押下し、 早送り状態 が解除された場合は、 発音データの送信を停止する。
なお、 4倍速に読み出すとは、 演奏端末 「Fac i l i tator」 の演奏速度の 履歴 (Gat eT i rae の移動平均) を参照し、 その 4倍の速度で読み出すよ う にしてもよいし、 演奏曲データに予め記載された再生速度 (テンポデー タ) に基づいて、 その 4倍の速度で読み出すよ う にしてもよい。
REWボタ ンを押下する と巻き戻し状態となる。 コン ト ローラ 1 は、 REW ボタンが押下され、 巻き戻し状態となった場合は、 接続されている全て の演奏端末 2 に割り 当てられている演奏パー トの過去に読み出したデー タを時間逆順に読み出し、 各演奏端末 2 に送信する。 つま り 、 コン ト口 —ラ 1 は、 M I D I データである演奏曲データ中のノー トオフイベン ト をノー トオンイベン ト と して、 ノー トオンイベン トをノー トオフィベン ト と して扱う。 このと き、 通常よ り も高速 (例えば 4倍速) に読み出し てもよいし、 通常速度で読み出してもよい。 コン ト 口一ラ 1 は、 巻き戻 し状態となっている場合は発音データを時間逆順に送信し続ける。 再度 REW ボタンを押卞し、 巻き戻し状態が解除された場合は、 発音データの 送信を停止する。
なお、 上記の巻き戻し状態において、 ノー トオンイベン トをそのまま 用いて発音するよ う にしてもよい。 高速 ( 4倍速) の巻き戻し状態にお いては、 各音の発音を認識できないほどの再生速度となるため、 時間逆 順にそのまま再生したと しても 「キュルキュル」 とレ、う よ う なスキャ ン 音程度にしか聞こえず、 違和感なく 再生するこ とができる。
また、 演奏端末 2の鍵盤 2 3 を用いて、 各演奏端末毎に個別に早送り や巻き戻しも行う こ とができる。 各使用者は、 特定の鍵盤 (例えば C2、 C3等) を打鍵するこ とで早送りや巻き戻しを指示するこ とができる。 コ ン ト ローラ 1 は、 各演奏端末 2から早送り用鍵盤のノー トオンメ ッセ一 ジ、 ノー トオフメ ッセージが入力されたとき、 その演奏端末 2に割り 当 てられている演奏パー トを通常よ り も高速に読み出し、 発音データを送 信する。 コン ト ローラ 1 は、 早送り状態となっている場合は発音データ を送信し続ける。 再度その演奏端末 2から早送り用の鍵盤のノー トオン メ ッセージ、 ノー トオフメ ッセージが入力されたと き、 発音データの送 信を停止する。 同様に、 コン トローラ 1 は、 各演奏端末 2から巻き戻し 用の鍵盤のノ トオンメ ッセージ、 ノー トオフメ ッセージが入力された と き、 その演奏端末 2に割り 当てられている演奏パー トを時間逆順に読 み出し、 発音データを送信する。 このと き、 通常よ り も高速に読み出し てもよいし、 通常速度で読み出してもよい。 コン ト ローラ 1 は、 巻き戻 し状態となっている場合は演奏パー トを時間逆順に読み出し、 発音デー タを送信し続ける。 再度その演奏端末 2から巻き戻し用の鍵盤のノー ト オンメ ッセージ、 ノー トオフメ ッセージが入力されたと き、 発音データ の送信を停止する。
また、 コ ン ト ローラ 1 は、 早送り 中または巻き戻し中は演奏楽音の発 音データを送信せずに、 疑似スキャ ン音を発音するよ う な発音データを 送信するよ う に してもよレ、。 疑似スキャ ン音は例えば 「キュルキュル J といった音等である。 この場合であっても、 打鍵タイ ミ ング (演奏曲デ ータの読み出し) は'高速で進行、 または逆行しているものとする。
なお、 演奏端末 2 の打鍵タイ ミ ングがファシリ テ一タの演奏端末 2の 現在の打鍵タイ ミ ングに到達した時点で上記のよ う な早送り 、 または卷 き戻し状態を停止するよ う にしてもよレ、。コ ン ト ローラ 1 は、早送り 中、 または巻き戻し中の各演奏端末 2 について、 ファシリ テータの演奏端末 2の打鍵タイ ミ ング (演奏曲データの読み出しタイ ミ ング) と同 じタイ ミ ングとなった場合に発音データの送信を停止する。
また、 上記のよ う な各演奏端末 2毎の早送り 、 または巻き戻しは、 コ ン ト ローラ 1 の操作部 1 5 を用いて行う こ と も可能である。 図示はしな いが、 図 7の合奏ウィ ン ドウの各演奏端末に個別に FFボタ ン、 REWボタ ンを表示すればよい。
なお、 各演奏端末 2毎に早送り 、 または巻き戻しを行う場合は、 各演 奏端末の演奏速度履歴 (Gat eT i meの移動平均) を参照し、 その 4倍速度 で演奏パー トを読み出すよう にしてもよい。 また、 ファシリ テータの演 奏端末 2の演奏速度の 4倍速と してもよいし、 演奏曲データに予め記載 されたテンポデータの 4倍速と してもよい。
さ らに、 本実施の形態における合奏システムは、 上記の早送り 、 また は巻き戻しとは異なる特定の鍵盤 (例えば G2等) を打鍵するこ とで、 フ ァシリ テ一タの演奏端末 2の打鍵タイ ミ ングと同じ打鍵タイ ミ ングにヮ ンタ ツチで合わせるこ とが可能である。 コン ト ローラ 1 は、 演奏端末 2 から上記特定の鍵盤 (G2鍵盤) のノー トオンメ ッセージ、 ノー トオフメ ッセージが入力されたと き、 ファ シ リ テータの演奏端末 2 の打鍵タイ ミ ングと同じ打鍵タイ ミ ングにポイ ン ト移動し、 次回その演奏端末 2から 演奏操作用の鍵盤 (例えば E3 ) のノー トオンメ ッセージが入力されたと きは、 ファシリ テータの演奏端末 2の現在の打鍵タイ ミ ングと同 じ打鍵 タイ ミ ングの演奏パー トを読み出して発音データを送信するよ う にする。 したがって、: その演奏端末 2力;、 フ ァ シリ テ一タの演奏端末 2の打鍵タ イ ミ ングよ り も遅い、 または進みすぎていたと しても、 ワンタ ッチで同 じ打鍵タイ ミ ングに移動するこ とができる。
このワ ンタ ツチ移動も コ ン トローラ 1 の操作部 1 5 を用いて行う こ と も可能である。 図 1 1 のよ う に、 合奏ウィ ン ドウの各演奏端末毎に、 フ ァシリテータの演奏端末 2 の打鍵タイ ミ ングと同じ打鍵タイ ミ ングに合 わせるための 「修正」 ボタンを表示するよ う にすればよい。
以上のよ う にして、 各使用者は指一本で鍵盤を押すという容易な操作 で演奏を行う こ とができ、 表示部 1 6 に示されるファシリ テータの演奏 端末 2 とのズレをなく すよ うに操作を行う こ とで、 複数人で楽しみなが ら合奏を行う こ とができる。 上記のよ う に、 フ ァ シリ テ一タ (基準演奏 端末) の演奏端末 2 とのズレは細かな音符単位ではなく 、 打鍵回数のズ レが表示されるので、 楽器の操作に不慣れな者であっても容易にズレ量 を把握するこ とができ る。 また、 演奏のズレが大き く なつてファシリ テ ータに合わせるこ とが.困難になった場合は、 「早送り」 ボタン、 「卷き 戻し」 ボタン、 修正ボタ ン等で容易に演奏のズレを修正するこ とができ るので、合奏が破綻するこ となく各使用者が演奏を楽しむこ とができる。 なお、 本実施の形態においては、 打鍵回数のズレを表示するよ う にし たが、 これ以外にもダイナミ クスのズレ、 演奏ニュアンスのズレなどを 表示するこ と も可能である。 ダイナミ クスのズレは、 各演奏端末 2から 入力される Ve l oc i t y の値を基に算出し、 演奏ニュアンスのズレは、 各演 奏端末 2 の Ga t eT i me の値を基に算出すればよレ、。 産業上の利用可能性
本発明によれば、 ガイ ド役との演奏のズレ量 (打鍵回数ズレ) を表示 でき、 楽器の操作に不慣れな者であつても容易に演奏のズレ量を把握す るこ とができるので、 自分の演奏を調整し易く なる。 また、 ガイ ド役自 身も各演奏参加者の演奏のズレ量を容易に把握するこ とができるので、 各参加者に対してもつと速く するべきか遅く するべきか等の指導を行う こ とができ、各参加者に合わせて自身のテンポを調整するこ と もできる。

Claims

請 求 の 範 囲
1 . 演奏操作を行うための少なく と も 1 つの演奏操作子を各々備える複 数の演奏端末と、 少なく と も 1 つの音源と、 前記複数の演奏端末および 前記少なく と も 1 つの音源に接続され、 各演奏端末を制御するコ ン ト 口 ーラ と、 からなる合奏システムであって、
前記コ ン ト ローラは、
複数の演奏パー 卜からなる演奏曲データを記憶する記憶手段と、 演奏の開始、 および終了を指示するための操作手段と、
前記複数の演奏パー トを前記複数の演奏端末に割り 当て、 各演奏端末 の演奏操作子の操作態様に応じて、 その演奏端末に割り 当てられている 演奏パー トを読み出し、 当該読み出した演奏パ一 卜のデータを前記音源 に出力する演奏御御手段と、
前記複数の演奏端末の う ちのガイ ド役用演奏端末が割り 当てられてい る演奏パ一 トの読み出し進度とその他の各演奏端末が割り 当てられてい る演奏パー トの読み出し進度とのズレを検出するズレ検出手段と、 前記読み出し進度のズレを表示する表示手段と、
を備えるこ と を特徴とする合奏システム。
2 . 前記音源は、 前記複数の演奏端末の各々に内蔵され、
前記コ ン ト ローラの演奏制御手段は、 前記読み出した演奏パー トのデ "タを、 その演奏パー トが割り 当てられている演奏端末に内蔵された音 源に出力するこ と を特徴とする請求の範囲第 1 項に記載の合奏システム。
3 . 前記コ ン ト ローラは、 少なく と も 1 つの演奏端末に割り 当てられて いる演奏パー トの早送り指示を行うための早送り指示手段をさ らに備え、 前記コ ン ト ローラの演奏制御手段は、 前記早送り指示手段で早送り指 示が行われたと きに、 当該演奏端末に割り 当てられている演奏パー 卜の 高速読み出しを実行するこ とを特徴とする請求の範囲第 1項または第 2 項に記載の合奏システム。
4 . 前記各演奏端末は、 自 己の演奏端末に割り 当てられている演奏パー トの早送り指示を行うための端末早送り指示手段を備え、
前記コ ン ト ローラの演奏制御手段は、 前記端末早送り指示手段で早送 り指示が行われたと きに、 当該演奏端末に割り 当てられている演奏パー トの高速読み出しを実行するこ と を特徴とする請求の範囲第 1 項〜第 3 項のいずれか 1項に記載の合奏システム。
5 . 前記コ ン ト ローラは、 少なく と も 1 つの演奏端末に割り 当てられて いる演奏パー 卜の巻き戻し指示を行う ための巻き戻し指示手段をさ らに 備え、
前記コ ン ト ローラの演奏制御手段は、 前記巻き戻し指示手段で巻き戻 し指示が行われたと きに、 当該演奏端末の過去に読み出した演奏パー ト を逆順に読み出すこ とを特徵とする請求の範囲第 1項乃至第 4項のいず れか 1 項に記載の合奏システム。
6 . 前記各演奏端末は、 自己の演奏端末に割り 当てられている演奏パー トの巻き戻し指示を行うための端末巻き戻し指示手段を備え、
前記コ ン ト ローラの演奏制御手段は、 前記端末巻き戻し指示手段で卷 き戻し指示が行われたと きに、 当該演奏端末の過去に読み出した演奏パ 一トを逆順に読み出すこ とを特徴とする請求の範囲第 1 項乃至第 5項の いずれか 1項に記載の合奏システム。
7 . 前記コ ン ト ローラは、 少なく と も 1 つの演奏端末と前記ガイ ド役用 演奏端末との演奏ズレをなくす指示を行う ためのズレ修正指示手段を備 X.、
前記コ ン ト ローラの演奏制御手段は、 前記ズレ修正指示手段で前記演 奏ズレをなく す指示が行われたと きに、 前記ガイ ド役用演奏端末に割り 当てられている演奏パー トの読み出 し進度と前記演奏端末に割り 当てら れている演奏パー 卜の読み出し進度とがー致するよ う に、 前記演奏端末 に割り 当てられている演奏パー トを読み出すこ と を特徴とする請求の範 囲第 1 項乃至第 6項のいずれか 1項に記載の合奏システム。
8 - 前記各演奏端末は、 自 己の演奏端末と前記ガイ ド役用演奏端末との 演奏ズレをなく す指示を行う ための端末ズレ修正指示手段を備え、 前記コン ト ローラの演奏制御手段は、 前記端末ズレ修正指示手段で前 記演奏ズレをなくす指示が行われたと きに、 前記ガイ ド役用演奏端末に 割り 当てられている演奏パー トの読み出 し進度と前記演奏端末に割り 当 てられている演奏パー 卜の読み出し進度とがー致するよ うに、 前記演奏 端末に割り 当てられている演奏パー トを読み出すこ と を特徴とする請求 の範囲第 1項乃至第 7項のいずれか 1項に記載の合奏システム。
PCT/JP2006/315075 2005-09-28 2006-07-24 合奏システム WO2007037067A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06768384A EP1930873A4 (en) 2005-09-28 2006-07-24 SYSTEM FOR MUSICAL SET
US12/088,430 US7888576B2 (en) 2005-09-28 2006-07-24 Ensemble system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005281059A JP4692189B2 (ja) 2005-09-28 2005-09-28 合奏システム
JP2005-281059 2005-09-28

Publications (1)

Publication Number Publication Date
WO2007037067A1 true WO2007037067A1 (ja) 2007-04-05

Family

ID=37899502

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/315075 WO2007037067A1 (ja) 2005-09-28 2006-07-24 合奏システム

Country Status (6)

Country Link
US (1) US7888576B2 (ja)
EP (1) EP1930873A4 (ja)
JP (1) JP4692189B2 (ja)
KR (1) KR20080046212A (ja)
CN (1) CN101278335A (ja)
WO (1) WO2007037067A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110821A (ja) * 2020-01-09 2021-08-02 Necプラットフォームズ株式会社 解析装置、演奏支援システム、解析方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5169328B2 (ja) 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
EP1975920B1 (en) 2007-03-30 2014-12-17 Yamaha Corporation Musical performance processing apparatus and storage medium therefor
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
JP7331366B2 (ja) * 2019-01-22 2023-08-23 ヤマハ株式会社 演奏システム、演奏モード設定方法および演奏モード設定装置
CN110534074A (zh) * 2019-07-19 2019-12-03 森兰信息科技(上海)有限公司 一种钢琴多端合奏方法及系统、存储介质及主钢琴
CN110517654A (zh) * 2019-07-19 2019-11-29 森兰信息科技(上海)有限公司 基于钢琴的乐器合奏方法、系统、介质及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816160A (ja) * 1994-06-30 1996-01-19 Roland Corp 演奏分析装置
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2001337675A (ja) 2000-05-25 2001-12-07 Yamaha Corp 演奏支援装置および演奏支援方法
JP2002091290A (ja) 2000-09-19 2002-03-27 Yamaha Corp 演奏表示装置および演奏表示方法
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2005062697A (ja) * 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器
JP2005250053A (ja) * 2004-03-03 2005-09-15 Advanced Telecommunication Research Institute International 合奏支援システム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) * 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
US6441289B1 (en) 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
US6448486B1 (en) 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
JP3453248B2 (ja) 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
JP3659138B2 (ja) * 1996-06-27 2005-06-15 ヤマハ株式会社 カラオケ装置
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3277875B2 (ja) 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
US6417435B2 (en) 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
WO2001093261A1 (en) 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal
IL137234A0 (en) * 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP4166438B2 (ja) * 2001-01-31 2008-10-15 ヤマハ株式会社 音楽ゲーム装置
US6660922B1 (en) 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
JP3632606B2 (ja) * 2001-03-16 2005-03-23 ヤマハ株式会社 自動演奏装置
US20020165921A1 (en) 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
AU2002305332A1 (en) * 2001-05-04 2002-11-18 Realtime Music Solutions, Llc Music performance system
JP3726712B2 (ja) * 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003256552A (ja) 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
US6768046B2 (en) 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
JP4144296B2 (ja) 2002-08-29 2008-09-03 ヤマハ株式会社 データ管理装置、プログラムおよびデータ管理システム
JP3988633B2 (ja) 2002-12-04 2007-10-10 カシオ計算機株式会社 学習結果表示装置、及びプログラム
US6995311B2 (en) 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
WO2005004030A2 (en) 2003-06-25 2005-01-13 Yamaha Corporation Method for teaching music
JP4314964B2 (ja) * 2003-10-24 2009-08-19 ヤマハ株式会社 合奏システム
JP4363204B2 (ja) 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
US7271329B2 (en) 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) * 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) * 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816160A (ja) * 1994-06-30 1996-01-19 Roland Corp 演奏分析装置
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2001337675A (ja) 2000-05-25 2001-12-07 Yamaha Corp 演奏支援装置および演奏支援方法
JP2002091290A (ja) 2000-09-19 2002-03-27 Yamaha Corp 演奏表示装置および演奏表示方法
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2005062697A (ja) * 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器
JP2005250053A (ja) * 2004-03-03 2005-09-15 Advanced Telecommunication Research Institute International 合奏支援システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1930873A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110821A (ja) * 2020-01-09 2021-08-02 Necプラットフォームズ株式会社 解析装置、演奏支援システム、解析方法及びプログラム

Also Published As

Publication number Publication date
CN101278335A (zh) 2008-10-01
EP1930873A4 (en) 2010-08-11
KR20080046212A (ko) 2008-05-26
US20090151545A1 (en) 2009-06-18
EP1930873A1 (en) 2008-06-11
JP4692189B2 (ja) 2011-06-01
JP2007093820A (ja) 2007-04-12
US7888576B2 (en) 2011-02-15

Similar Documents

Publication Publication Date Title
US7947889B2 (en) Ensemble system
JP5169328B2 (ja) 演奏処理装置及び演奏処理プログラム
US7939740B2 (en) Ensemble system
WO2008004690A1 (fr) Dispositif portatif de production d'accords, programme d'ordinateur et support d'enregistrement
WO2007037067A1 (ja) 合奏システム
US7405354B2 (en) Music ensemble system, controller used therefor, and program
JP3750699B2 (ja) 楽音再生装置
JP4131279B2 (ja) 合奏パラメータ表示装置
US7838754B2 (en) Performance system, controller used therefor, and program
JP2002006866A (ja) カラオケ装置
JP3962114B2 (ja) カラオケ装置
EP1975920A2 (en) Musical performance processing apparatus and storage medium therefor
KR20090085005A (ko) 자동음정 기타
JP2001070644A (ja) ダンスゲーム装置
KR101842282B1 (ko) 기타 연주시스템과 이를 위한 연주용 기타 및 기타 연주정보 표시방법
JP2007279696A (ja) 合奏システム、コントローラ、およびプログラム
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP4429244B2 (ja) カラオケ装置
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
JP2000122673A (ja) カラオケ装置
JP2008089748A (ja) 合奏システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680036035.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006768384

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12088430

Country of ref document: US

Ref document number: 1020087007402

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE