WO2007032155A1 - 合奏システム - Google Patents

合奏システム Download PDF

Info

Publication number
WO2007032155A1
WO2007032155A1 PCT/JP2006/315070 JP2006315070W WO2007032155A1 WO 2007032155 A1 WO2007032155 A1 WO 2007032155A1 JP 2006315070 W JP2006315070 W JP 2006315070W WO 2007032155 A1 WO2007032155 A1 WO 2007032155A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
terminal
controller
facilitator
performance terminal
Prior art date
Application number
PCT/JP2006/315070
Other languages
English (en)
French (fr)
Inventor
Satoshi Usa
Tomomitsu Urai
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Priority to EP06768379A priority Critical patent/EP1926080A4/en
Priority to US12/066,519 priority patent/US7939740B2/en
Publication of WO2007032155A1 publication Critical patent/WO2007032155A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/06Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
    • G10H1/08Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by combining tones
    • G10H1/10Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by combining tones for obtaining chorus, celeste or ensemble effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/175Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments for jam sessions or musical collaboration through a network, e.g. for composition, ensemble playing or repeating; Compensation of network or internet delays therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Definitions

  • the present invention relates to an ensemble system in which even a person unfamiliar with the operation of a musical instrument can easily participate in an ensemble, and more particularly to an ensemble system that can easily manage a performance history.
  • This electronic musical instrument allows multiple users to perform an ensemble with a simple operation (hand-shaking operation).
  • this electronic musical instrument can be used for rehabilitation (hereinafter simply referred to as rehabilitation) and wellness activities because multiple users can enjoy (exercise performance) while enjoying.
  • rehabilitation rehabilitation
  • wellness activities because multiple users can enjoy (exercise performance) while enjoying.
  • a performance processing device disclosed in Japanese Patent Application Laid-Open No. 2000-093613 is proposed. This performance processing device detects the user's performance and physical condition, records performance parameters (evaluation music data) based on the movement and physical condition, and compares them with standard music data for evaluation.
  • a group is formed with a prescribed number of people (for example, about 5 people), and a facility (guide role) guides each participant. Often done.
  • the facilitator manages the participation status (attendance, etc.) of each participant and manages how much activity has been performed daily, weekly, or monthly.
  • the performance processor can collect data used for the evaluation of mental and physical functions, but it manages the participation status (attendance, etc.) of each participant, and it is daily, weekly, or monthly. It was not possible to manage how much activity was performed.
  • an ensemble system includes a plurality of performance terminals each including at least one performance operator for performing a performance operation, at least one sound source, and the plurality of performance terminals.
  • An ensemble system comprising a controller connected to at least one sound source and controlling each performance terminal, wherein the controller stores performance song data composed of a plurality of performance parts.
  • the performance control means that reads out the performance part assigned to the and outputs the data of the read performance part to the sound source, and the use of each performance terminal is not used.
  • IE recording means for recording the performance history of each performance terminal from the start to the end of the performance.
  • the user instructs the start of performance using the operation means of the controller, and performs the performance operation with the performance operator of the performance terminal.
  • the performance operator of the performance terminal is, for example, an electronic piano keyboard.
  • an operation signal is sent to the controller.
  • the controller sends sound generation instructions to the sound source based on the received operation signal.
  • the sound source produces a musical sound in response to a sound generation instruction.
  • the facilitator who is the group guide can easily manage the participation status (attendance) of participants.
  • the end of the performance is instructed, the performance history of the song is recorded, and it is easy to change the performance status of each participant by referring to this daily, weekly, or monthly. Can be managed.
  • the sound source is further incorporated in each of the plurality of performance terminals, and the performance control means of the controller includes the read performance part. This information is preferably output to a sound source built in the performance terminal to which the performance part is assigned.
  • the controller reads the performance part assigned to the performance terminal based on the operation signal received from the performance terminal, and the data of the read performance part.
  • the built-in sound source of the performance terminal produces a musical tone in response to the received pronunciation instruction. As a result, each performance part is pronounced at each performance terminal.
  • the performance history further includes information on the number of performance operations and the average strength of performance operations.
  • the performance history includes information on the number of performance operations (for example, keystrokes) and the average strength of the performance operations (keystroke strength).
  • keystrokes for example, keystrokes
  • keystroke strength the average strength of the performance operations
  • the performance history includes information on an average deviation amount from a performance operation of a performance terminal serving as a guide among the performance terminals.
  • the information of the average shift amount with the reference performance terminal is recorded as the performance history.
  • the reference performance terminal is, for example, a performance terminal used by the facilitator.
  • Figure 2 is a block diagram showing the configuration of the control.
  • Figure 3 is a block diagram showing the configuration of the performance terminal.
  • FIG. 4 shows an example of music data.
  • FIG. 5 is a diagram showing an example of the part allocation table.
  • Fig. 6 shows the main operation window.
  • FIG. 7 shows an ensemble window
  • Fig. 8A shows the setting of the number of beats
  • Fig. 8B shows the time signatures (1st and 3rd beats) that are keystrokes and the beats that are not keystroke timings.
  • Figure 9 shows the current beat transition.
  • FIG. 10 is a diagram for explaining the difference between beats with the performance terminal “Fac i itator”.
  • FIG. 11 is a diagram showing an example of a performance history.
  • Figure 12 is a flowchart showing the log creation sequence. Best mode for carrying out
  • FIG. 1 is a block diagram showing the configuration of the ensemble system. As shown in the figure, this ensemble system is composed of controller 1 and a plurality of (six in this figure) performance terminals 2 A to 2 connected to controller 1 via Ml DI interface box 3. It has 2 F. Of the plurality of performance terminals 2, performance terminal 2A is a performance terminal for facilitators (guide role), and performance terminals 2B to 2F are performance terminals for participants (student roles). 5 participants using performance terminals 2 B to 2 F always use the same performance terminal 2. This allows the facilitator to identify participants at the performance terminal.
  • the controller 1 is composed of, for example, a personal computer, and controls each performance terminal 2 and collects data by software installed in the personal computer. Controller 1 stores performance music data consisting of multiple parts. These parts consist of one or more medium departs, rhythm parts, and accompaniment parts.
  • the controller 1 includes a communication unit 1 1 to be described later, which transmits sound data of each part (or a plurality of parts) to each performance terminal 2.
  • the performance terminal 2 is a device that generates music according to the performance operation of the user as the user performs the performance operation.
  • the performance terminal 2 is composed of an electronic keyboard instrument such as an electronic piano.
  • a MIDI interface box 3 connected to the controller 1 via USB is used, and each performance terminal 2 is connected by a separate MID ⁇ system.
  • the performance terminal 2A is a performance terminal for a facilitator.
  • Controller 1 is used to specify the performance terminal for the facilitator.
  • the performance terminal 2 is not limited to the electronic piano, but may be another form of electronic musical instrument such as an electronic guitar.
  • the appearance is good be a terminal equipped with the operator of the only button, and the like is not limited to the natural musical instrument Rere 0
  • the performance terminal 2 does not need to have a built-in sound source, and an independent sound source may be connected to the controller 1.
  • the number of sound sources connected to controller 1 may be one, or the same number as that of performance terminal 2. If the same number of sound sources as the performance terminal 2 are connected, the controller 1 should associate each sound source with the performance terminal 2 and assign each part of the performance data.
  • This ensemble system assigns multiple performance parts of performance data stored in controller 1 to multiple performance terminals 2, and each performance terminal 2 is uniquely assigned.
  • a player performs a performance operation using the performance terminal 2 (for example, pressing a keyboard of an electronic piano)
  • a tempo and timing instruction is transmitted to the control 1.
  • Controller 1 transmits to performance terminal 2 a sound instruction for each note of the performance part assigned to performance terminal '2 based on the input tempo and timing instructions.
  • the performance terminal 2 performs automatic performance based on the received pronunciation instruction.
  • the student who uses each performance terminal 2 establishes the ensemble by taking the tempo according to the facilitator.
  • the configuration of the controller 1 and the performance terminal 2 will be described in detail.
  • FIG. 2 is a block diagram showing the configuration of controller 1.
  • the controller 1 includes a communication unit 11, a control unit 12, an HD D 13, a RAM 14, an operation unit 15, and a display unit 16.
  • a communication unit 11, an HD D 13, a RAM I 4, an operation unit 15 and a display unit 16 are connected to the control unit 12.
  • the communication unit 11 is a circuit unit that communicates with the performance terminal 2 and has a USB interface (not shown).
  • the USB interface is connected to an MID I interface box 3, and the communication unit 1 1 communicates with the six performance terminals 2 via the M ID interface box 3 and the M I DI cable.
  • HD D 1 3 stores the controller ⁇ ⁇ operation program and performance music data consisting of multiple parts.
  • the control unit 1 2 reads out the operation program stored in the HDD 1 3 and expands it to the work memory R. AM I 4 for part assignment processing 50, sequence processing 51, and sound generation instruction processing. 5 Perform 2 etc.
  • the control unit 12 assigns each performance part of the performance music data to a plurality of performance terminals 2.
  • the control unit 1 2 sequences the performance parts of the performance data according to the tempo and timing instructions received from each performance terminal 2 (determining the pitch and length of each sound).
  • the control unit 12 transmits the pitch and length of each sound determined in the sequence process 51 to the performance terminal 2 as sound generation instruction data.
  • the operation unit 15 is used by a user (mainly a facilitator) to instruct the performance system to operate.
  • the facilitator operates the operation unit 15 to specify, for example, performance music data to be played, or to assign the performance part of each performance terminal 2.
  • the display unit 16 is a display (monitor), and the facilitator and each participant perform performance operations while watching the display unit 16. Although details will be described later, various information for performing an ensemble is displayed on the display unit 16.
  • FIG. 3 is a block diagram showing the configuration of the performance terminal 2.
  • the performance terminal 2 includes a communication unit 2 1, a control unit 2 2, a keyboard 2 3 that is a performance operator, a sound source 2 4, and a speaker 25.
  • a communication unit 2 1, a keyboard 2 3, and a sound source 2 4 are connected to the control unit 2 2.
  • a speaker 25 is connected to the sound source 2 4.
  • the communication unit 2 1 is a MIDI interface and communicates with the controller 1 via a MIDI cable.
  • the control unit 2 2 controls the performance terminal 2 in an integrated manner.
  • the keyboard 2 3 has, for example, 6 1 and 8 8 keys, and can play a 5-7 octave range. In this ensemble system, note-on / ⁇ Use only off-message and velocity data. In other words, each key contains a sensor that detects on / off and a sensor that detects the strength of the keystroke, and the keyboard 2 3 has a key operation mode (which key is keyed at what strength). The operation signal is output to the control unit 22 according to whether it has been done.
  • the control unit 22 Based on the input operation signal, the control unit 22 transmits a note-on message or a note-off message to the controller 1 via the communication unit 21.
  • the sound source 24 generates a musical sound waveform according to the control of the control unit 22 and outputs it as an audio signal to the speaker 25.
  • Spin The power 2 5 reproduces the sound signal input from the sound source 2 4 and produces a musical sound.
  • the sound source 24 and the speaker 25 may not be incorporated in the performance terminal 2.
  • the sound source 2 4 and the speaker 2 5 may be connected to the controller 1 so that the musical sound is produced from a different place from the performance terminal 2.
  • the same number of sound sources as each performance terminal 2 may be connected to the controller 1, or a single sound source may be used.
  • the control unit 2 2 sends a note-on Z-note-off message to the controller 1 (locally off), and the instruction from the controller 1 rather than the note message by the keyboard 2 3.
  • the performance terminal 2 can be used as a general electronic musical instrument in addition to the above operations.
  • the control unit 2 2 does not send a note message to the controller 1 (single call-on), and instructs the sound source 2 4 to produce a musical tone based on the note message.
  • the user can switch between local on and local off using the operation unit 15 of the controller 1 or the terminal operation unit (not shown) of the performance terminal 2. It is also possible to set so that only some keys are turned off locally and other keys are turned on locally.
  • the user uses the operation unit 15 of the controller 1 to select the music data.
  • the performance song data is data (standard MIDI) created in advance based on the MIDI standard, and is stored in the HDD 1 3 of the controller 1.
  • Figure 4 shows an example of this music data.
  • the performance music data consists of a plurality of performance parts, and includes identification information for identifying each performance part and performance information of each performance part.
  • the controller 1 assigns a performance part to each connected performance terminal 2. Which performance part is assigned to which performance terminal is specified in advance in the table.
  • FIG. 5 is a diagram showing an example of a performance part assignment table.
  • performance port 1 corresponds to MIDI port 0 (facilitator performance).
  • performance part 1 is assigned to performance terminal 2A in FIG.
  • the MIDI port indicates the port number of MIDI interface box 3, and each performance terminal 2 is identified by its connected MIDI port.
  • the performance part 2 corresponds to the MIDI port 1 (piano 1).
  • the performance part 2 is assigned to the performance terminal 2B. In this way, each performance terminal 2 is automatically assigned a performance part '.
  • This performance part allocation table is registered in advance in the HDD 1 3 of the controller 1 by the facilitator. The facilitator may be manually selected using the operation unit 15 of the controller 1.
  • each performance terminal 2 When each performance terminal 2 is connected to the USB port, each performance terminal 2 may be identified by the USB port number.
  • the operation section 15 of the controller 1 inputs the performance start stamp instruction by the facilitator. To do.
  • the performance start standby here does not mean that a musical tone is actually generated, but the controller 1 reads out the performance data from the HDD 1 3 to the RAMI 4 and prepares it for performance. is there.
  • each performance terminal 2 can perform.
  • this ensemble system multiple users perform the performance of a facilitator (ensemble leader). Perform the performance operation to the performance.
  • each user performs in accordance with the performance of the facilitator (human performance) rather than simply performing with the sample performance (machine demo performance), so that the user feels that he is actually performing an ensemble. Obtainable.
  • the control unit 2 2 When each user presses the controller (keyboard) 2 3 of the performance terminal 2 with his / her finger, the control unit 2 2 sends a note-on message to the controller 1 according to the strength of pressing the keyboard 2 3.
  • the note-on message includes information such as key strength (V e oc i t y).
  • the control unit 2 2 transmits a note-off message to the controller 1.
  • the controller 1 Based on the note-on message and note-off message received from the performance terminal 2, the controller 1 stores performance data for a predetermined length (for example, one beat) of the performance part assigned to the performance terminal 2. The pitch, pitch, etc.
  • the pronunciation instruction data includes the timing, tone length, intensity, timbre, effect, pitch change (pitch bend), tempo, etc. that should be pronounced.
  • Controller 1 determines the sound generation instruction data based on the time from when a note-on message is received until the note-off message is received. Specifically, when a note-on message is input, the timing information, tone, and effect to be played out by reading out the performance information for the specified performance part (such as one beat) of the corresponding performance part of the performance data. Determine the pitch change. Controller 1 determines the sound intensity from the velocity information of the note-on message.
  • the performance information of the performance song data includes information indicating the volume, and the intensity is determined by multiplying this volume by the velocity information. In other words, the performance data contains volume information that takes into account the volume expression (sound intensity) in the song, but the strength of each user's key press. Appropriate dynamic expressions are added, and the pronunciation intensity is determined.
  • the controller 1 measures the time from when the note-on message is input. Until a note-off message is input, the first sound is generated as it is, and when a note-off message is input, the tempo for that beat and the length of each note are determined. Play a musical sound.
  • the tempo may be determined simply from the time from Note On to Note Off (referred to as GateTime), but the tempo may be determined as follows. That is, for the keystrokes that have been made multiple times (several to the previous few times), the moving average of the gate time is calculated, and this is weighted by time. The most weight is given to the most recent strike, and the weight is made smaller as the past key strikes.
  • the control unit 2 2 of the performance terminal 2 receives the sound generation instruction data determined by the controller 1 as described above, and instructs the sound source 2 4 to generate a musical sound waveform.
  • the sound source 2 4 generates a musical sound waveform and reproduces a musical sound from the speaker 25.
  • the above process is repeated. For example, the user can press the keyboard 23 every beat to play a song.
  • the first tone is generated as it is, so the same tone will continue to be played until the user returns the finger from the keyboard 23.
  • a performance expression (fermata) that extends the sound.
  • the following performance expression can be realized by determining the tempo based on the moving average of the game time as described above. For example, if keyboard 2 and 3 are pressed shortly only when a certain key is pressed, Shorten the length, and if the keyboard 2 3 is pressed slowly, increase the length of each note for that beat. This makes it possible to create performance expressions (staccato) that do not significantly change the tempo but improve the crispness of each sound, or perform expressions that maintain the length of the sound without changing the tempo significantly (tenuto) Can be realized. .
  • a note-on message and a note-off message are sent to the controller 1 regardless of which keyboard 23 of the performance terminals 2 A to 2 F is pressed. Separate the keyboard that works and the keyboard that doesn't work. Controller 1 only needs to change the sound length while maintaining the tempo only when a note-on message or a note-off message from a specific key (eg, E 3) is input.
  • a specific key eg, E 3
  • FIG. 6 is a main operation window displayed on the display unit 16.
  • the name of the song data selected by the user is displayed in the upper text field of this window.
  • each performance terminal (Facilitator, Pianol to 5) is displayed.
  • a pull-down menu for selecting the attendance for each performance terminal and a radio button for assigning performance parts are displayed.
  • the performance terminals (Facilitator, Pianol to 5) are associated with the M.I D I. port of M I D I interface box 3, respectively.
  • the attendance pull-down menu is selected and input by the facilitator according to the attendance of students.
  • the radio button is displayed only for performance terminals to which performance parts are assigned in the performance data.
  • performance parts 1, 2, 3, and 10 are set to the selected performance data, and when this performance data is selected,
  • the performance terminals “Facilitator”, “Pianol”, “Piano2”, and “Piano3” are automatically assigned to performance parts 1, 2, 3, and 10 according to the table in Fig. 5.
  • the performance parts are assigned only to the performance terminal “Facilitator” and “Pianol-3j”. If the performance data contains 6 performance parts, the performance parts are assigned to each of the performance terminals “FacilitatorJ” and “Pianol ⁇ 5j.
  • the performance part rather than the MIDI port (performance terminal).
  • performance parts when performance parts are automatically assigned based on the table in Fig. 5, if "absence” is selected for the "attendance” and “absence” pull-down menus, they should be assigned to that performance terminal.
  • the performance part is assigned to the performance terminal “Facilitator”.
  • the performance part “absent” may be assigned in place of another performance terminal to which a performance part (for example, bass, stringed instrument group, etc.) is assigned. It may be.
  • the related performance part may be specified in advance using a table.
  • the radio button with 2 beats is selected in this performance, the key is played every other beat, and the first and third beats are keyed.
  • the controller 1 returns sound generation instruction data for two beats. In other words, a single keystroker will be played for two beats.
  • Fig. 7 on the left side of the center of the ensemble window is the current number of measures, the number of beats in the measure (the key is played in the measure) for each performance terminal (Fac ilit ator, Piano, Piano 2, and Piano 3). Power number) and the current beat (current keystroke timing) are displayed. As shown in the figure, the number of keys to be pressed is displayed with a square icon with numbers inside, and the current beat is displayed with a solid square or bold icon. The display method is not limited to the icon in this example, but may be an icon of another shape. As shown in Fig. 8B, the time signature (second beat, fourth beat) that does not become the keystroke timing is displayed by changing it to another shape icon such as a circle number.
  • the current beat shifts one beat at a time as shown in Fig. 9.
  • the solid square or bold icons are changed in order of the 1st beat, 2nd beat, 3rd beat, and 4th beat for each keystroke.
  • the performance data in this example is music data of 4 beats and 4 minutes, so when the next key is pressed for the 4th beat, it returns to the 1st beat and advances one measure.
  • a field indicating the deviation of the beat from the performance terminal “Facilitator” is displayed on the right side of the center of the window. In this field, multiple lines (for example, 5 lines) are displayed in the vertical direction, and lines are displayed in the horizontal direction corresponding to each performance terminal. In addition, a circle is displayed corresponding to each performance terminal. This circle indicates a deviation from the performance terminal “Facilitator”.
  • Fig. 10 is a diagram for explaining the displacement of the beat with the performance terminal "Facilitator ⁇ ."
  • the circle corresponding to the performance terminal "Facilitator” is the center line of the vertical lines. It is fixed and displayed.
  • the circle corresponding to each user's performance terminal (for example, “Pianol”) moves to the left and right in accordance with the displacement of the beat with the performance terminal “Facilitator”. For example, one bar (4 beats in this example) from the performance terminal “Facilitator” When the key is delayed, the circle moves to the left by one vertical line as shown in the figure.
  • Half measure (2 beats) When delayed, the circle moves from the center line in the vertical direction to the left by half the line interval.
  • the circle will move to the right.
  • two lines are displayed on the left and right of the center line, so two beats are beaten. If there is a shift in beats of two bars or more, change the icon on the left and right lines (for example, change it to a square icon). The person can easily recognize the deviation of the performance (beat) with the facilitator.
  • the performance terminal used as a reference is not limited to the performance terminal “Facilit a torJ.
  • One of the plurality of performance terminals 2 is used as a reference, and the amount of beat deviation from the performance terminal 2 is displayed. You may do it.
  • the builde indicating the displacement of the beat with the performance terminal “Facilitator” is not limited to the example displayed on the display unit 16 of the controller 1, and each performance terminal 2 You may make it display on the display part (not shown) for performance terminals installed in.
  • each user can perform the performance with an easy operation of pressing a key with one finger, and perform (beat) with the performance terminal “Faciliator” shown on the display unit 16.
  • performing the operation so as to eliminate the deviation it is possible to perform an ensemble while having fun with multiple people.
  • every time controller 1 plays a song each user's attendance, number of keystrokes, keystroke strength, amount of misalignment, etc. are automatically recorded in HD 13.
  • the facilitator can easily manage attendance of the group by referring to the recorded history, and easily manage how much each user has improved daily, weekly, or monthly. Can do. The following describes the performance history recording.
  • FIG. 11 shows an example of a performance history.
  • the value of each item is recorded according to the performance operation of each controller 2 and the text data is CSV (Comma Separated Values) after the performance is completed. Output in the file format. Recorded performance history is displayed with spreadsheet software.
  • the start button of the performance control buttons shown in FIG. 6 is pressed by the facilitator and the start of performance is indicated, recording of each item is started. Record each item for each performance. For the date, day of the week, and time items, the date, day of the week, and time when the facilitator presses the Start button to start playing are recorded.
  • the attendance item of the MIDI port for which “Attendance” is selected is 1 and “Absence” is selected. Record the number of attendances on the current MIDI port as 0. If the "attendance (Fa)" item of the shows be played history in Figure 1 1 "1" is displayed, it means that the performance end the end of "Fa C ilit a tor" has participated in the performance of the music piece . Same If “1” is displayed in the “Attendance (PI)” item, it means that the performance terminal “Pianol” has participated in the performance.
  • Controller 1 counts and counts keystrokes (input of note-on message) from pre-play terminal 2 until the Stop button is pressed after the Start button is pressed or until the performance of one song is completed.
  • the “Keyon (Fa)” item in the performance history shown in Fig. 11 indicates the total number of keys played by the performance terminal “Facilitatorj” in the performance song.
  • the “Keyon (PI)” item in the performance song This indicates the total number of keys played on the performance terminal “Pianol”.
  • Controller 1 records the Velocity value input from each performance terminal 2 until the Stop button is pressed after the Start button is pressed, or until the performance of one song is completed. Calculate the velocity average value in one song using the number of keystrokes.
  • the “average V (Fa)” item in the performance history shown in Fig. 11 shows the average Velocity value of the performance terminal “Facilitator” for the song.
  • controller 1 records the deviation of the keystroke timing of the Facilitator J from each playing terminal until the Stop button is pressed after the Start button is pressed or until the performance of one song is completed.
  • the controller 1 calculates the time difference between the performance terminal “Facilitator” and the performance terminal to which the current note-on message is currently input when the same measure and time signature are played. The time is recorded as the amount of deviation from the performance terminal “Facilitator”, and then counted.
  • the “average deviation (P1)” item in the performance history shown in FIG. 11 shows the average keying timing deviation between the performance terminal “Pianol” and the performance terminal “Facilitator” in the performance song.
  • FIG. 12 is a flowchart showing the log creation sequence of controller 1. This sequence triggers when the facilitator uses the operation unit 15 to instruct the start of the performance (press the Start button of the performance control buttons). This sequence is executed by the controller 1 2 of the controller 1.
  • the attendance item of the MIDI port for which “Attendance” is selected is 1 and the attendance item of the MIDI port for which “Absence” is selected is 0 and temporarily recorded in RAM 14 (s 1 1) . Thereafter, it is determined whether or not a note-on message has been received (s i 2). This determination is repeated until a note-on message is received.
  • a note-on message is received, the number of keystrokes of the performance terminal 2 is counted, and the inputted velocity value is temporarily recorded in R A M l 4 (s 1 3). Also, the time gap with the performance terminal “Facilitator” is temporarily recorded in RAM I 4 (s 14).
  • the time difference when the same measure and the same time signature is played is calculated, and the time difference between the performance terminal “Facilitator J and the performance terminal“ Facilitator J ”is calculated.
  • the performance data is played to the end and the performance of one song is completed, or the facilitator determines whether or not the performance stop instruction has been input by pressing the Stop button of the performance control buttons. (S 1 5). If the performance is not finished or stopped, the process is repeated from the reception of the note-on message (s 15 ⁇ s 12). When the performance is finished or stopped If this is the case, the numerical value of each item temporarily recorded in RAM I 4 is aggregated (s 1 6). The total number of keystrokes for one song is counted, and the average value of velocity is calculated from the number of keystrokes. In addition, the average value of the amount of deviation from the performance terminal “FacilitatorJ” is also calculated. Finally, these total values are recorded as text data in HD D 13 (s 17).
  • the facilitator can easily manage attendance by simply specifying the start and end of the performance, as well as which participants each day, week, or month. For example, if the number of “absences” tends to increase, the participants are more likely to feel “lessons are tight” and constitute a wellness program. This is useful information.
  • each participant can recognize his / her progress by referring to the above log and gain motivation to participate in the concert. It can also be used for comparison and competition among multiple groups, which can be used as a motivation for each participant's practice and health activities. '' Industrial applicability
  • attendance management of each participant can be easily performed, and it is possible to easily manage to what extent each day, week, or month has been improved.
  • it can be used as a motivation for participating in concerts, and can be compared among multiple participants or groups.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

各参加者の参加状態(出欠等)の管理を行い、日々毎、週毎、あるいは月毎にどの程度活動を行ったかを容易に管理できる電子楽器を提供する。コントローラ1は、各演奏端末2の演奏操作に応じて演奏履歴を記録する。Facilitatorが演奏パートを割り当てた演奏端末2は「出席」、演奏パートを割り当てない演奏端末2は「欠席」とし、演奏開始から演奏終了まで各演奏端末2の打鍵数、平均打鍵強さ(平均Ve1ocity)等を記録する。記録した各項目の値はテキストデータとして出力する。演奏毎に各項目の値が記録されるので、各使用者が日々毎、週毎、あるいは月毎にどの程度参加しているかを容易に管理することができる。

Description

明 細 書 合奏システム
技術分野
本発明は、.楽器の操作に不慣れな者であっても容易に合奏に参加でき る合奏システムに関し、 特に演奏履歴を容易に管理することができる合 奏システムに関する。 背景技術
従来よ り、 演奏者の操作に対して楽音を発生する電子楽器が知られて いる。 このような電子楽器は、 例えばピアノ等をモデルと しており、 自 然楽器のピアノ と同様の演奏操作を行う ものが一般的であつた。 また、 この様な電子楽器では、 演奏の上達に熟練を要し、 演奏の習熟に時間が かかるものである。
しかし、 近年は楽器の操作に不慣れな者が容易に演奏す'ることができ る楽器を実現することが望まれている。 また、 演奏者が一人で演奏を楽' しむだけでなく、 多.数の演奏者が参加して合奏を実現することができる 楽器の実現が望まれている。
そこで、 楽器の操作に不慣れな複数の使用者が容易に演奏に参加でき る電子楽器と して、 例えば特開 2 0 0 0— 2 7 6 1 4 1号公報の電子楽 器が提案されている。
この電子楽器は、 複数の使用者が簡易な操作 (手で振る操作) で合奏 を行う ことができる。 また、 この電子楽器は、 複数の使用者が楽しみな がら運動 (演奏操作) をすることができるため、 リハビリテーショ ン (以 下、 単にリハビリ と言う。 ) やウェルネス活動等に用いられている。 電子楽器をリハビリゃゥエルネス活動に用いる場合、 各使用者の情報 を収集することが望まれている。 例えば、 演奏に.よる使用者の心身機能 の変化を評価するために、 各使用者の心拍数等の心身機能のデータを収 集できる'電子楽器が望まれている。
各使用者の情報を収集できるものと して、 '例えば特開 2 0 0 4— 9 3 6 1 3号公報の演奏処理装置が提案されている。 この演奏処理装置は、 使 用者の演奏動作や身体状態を検出し、 その動作や身体状態に基づいて演 奏パラメータ (評価用楽曲データ) を記録し、 標準楽曲データと比較し て評価する。
複数の使用者 (参加者) が同時にリハビリ等の活動を行う場合、 所定 の人数 (例えば 5人程度) で 1つのグループを形成し、 ファシリテ一タ (ガイ ド役) が各参加者をガイ ドすることが多い。 ファシリテータは、 各参加者の参加状態 (出欠等) の管理を行い、 日 々毎、 週毎、 あるいは 月毎にどの程度活動を行つたかを管理する。
上記電子楽器では、 複数の参加者が容易に合奏を行うことができるも のであるが、 ファシリテータが各参加者の参加状態を管理できるもので はなく、 例えば受付等で出欠記録をとるしかなかった。
また、 上記演奏処理装置は、 心身機能の評価に用いるデータを収集す ることができるが、 各参加者の参加状態 (出欠等) の管理を行い、 日 々 毎、 週毎、 あるいは月毎にどの程度活動を行つたかを管理できるもので はなかった。
本発明の目的は、 各参加者の参加状態 (出欠等) の管理を行い、 日 々 毎、 週毎、 あるいは月毎にどの程度活動を行つたかを容易に管理するこ とができる合奏システムを提供することにある。 発明の開示 上記目的を達成するために、 本発明の合奏システムは、 演奏操作を行 うための少なく とも 1つの演奏操作子を各々備える複数の演奏端末と、 少なく とも 1つの音源と、 前記複数の演奏端末おょぴ前記少なく とも 1 つの音源に接続され、 各演奏端末を制御するコン トローラと、 からなる 合奏システムであって、 前記コン トローラは、 複数の演奏パートからな る演奏曲データを記憶する記憶手段と、 演奏の開始、 および終了を指示 するための操作手段と、 前記複数の演奏パー トを前記複数の演奏端末に 割り当て、 各演奏端末の演奏操作子の操作態様に応じて、 その演奏端末 に割り当てられている演奏パー トを読み出し、 当該読み出した演奏パー トのデータを前記音源に出力する演奏制御手段と、 各演奏端末の使用お ょぴ不使用を記録し、 演奏の開始から終了までの各演奏端末の演奏履歴 を記録する IE録手段と、 を備えることを特徴とする。
本発明では、 使用者がコン ト口ーラの操作手段を用いて演奏の開始を 指示し、 演奏端末の演奏操作子で演奏操作を行う。 演奏端末の演奏操作 子は、 例えば電子ピアノの鍵盤である。 いずれか一つの鍵盤を打鍵する と操作信号がコン トローラに送信される。 コン ト ローラは受信した操作 信号に基づいて発音指示を音源に送信する。 音源は発音指示に応じて楽 音を発音する。 使用者が演奏の終了を指示すると、 各演奏端末が演奏に 参加したか否かがコントローラのメモリ等に記録される。 これにより、 グループのガイ ド役であるファシリテータは、 参加者の参加状態(出欠) を容易に管理することができる。 また、 演奏の終了を指示した時に、 そ の曲における演奏履歴が記録.され、 これを日'々毎、 週毎、 あるいは月毎 に参照することで、 各参加者の演奏状態の変化を容易に管理することが できる。
本発明では、 さらに、 前記音源は、 前記複数の演奏端末の各々に内蔵 され、 前記コン ト ローラの演奏制御手段は、 前記読み出した演奏パー ト の情報を、 その演奏パー トが割り当てられている演奏端末に内蔵された 音源に出力することが好ましい。
この好ましい態様によれば、 コ ン ト ローラは演奏端末から受信した操 作信号に'基づいて、 その演奏端末に割り当てられている演奏パ一 トを読 み出し、 当該読み出した演奏パー トのデータを当該演奏端末に内蔵され た音源に送信する。 演奏端末の内蔵音源は受信した発音指示に応じて楽 音を発音する。 これにより、 各演奏端末において、 各自の演奏パー トが 発音されることとなる。
本発明では、 さ らに、 前記演奏履歴は、 演奏操作の回数および演奏操 ' 作の平均強さの情報を含むことが好ましい。
この好ましい態様によれば、 演奏履歴として演奏操作 (例えば打鍵) の回数、 演奏操作の平均強さ (打鍵の強さ) の情報が含まれる。 演奏操 作の回数、 平均強さの情報を記録す.ることで、 どの程度の運動量である かを容易に管理することができる。 また、 これを日 々毎、'週毎、 あるい は月毎に参照することで、 運動量の推移、 打鍵の強さの推移を容易に管 理することができる。
本発明では、 さ らに、 '前記演奏履歴は、 前記演奏端末のうちガイ ド役 用演奏端末の演奏操作との平均ズレ量の情報を含むことが好ましい。 この好ましい態様によれば、 演奏履歴と して、 基準となる演奏端末と の平均ズレ量の情報を記録する。 基準となる演奏端末は例えばファシリ テータが使用する演奏端末である。 平均ズレ量の情報を記録することで、 演奏 (合奏) のレベル管理を行う ことができる。 また、 これを日 々毎、 週毎、 あるいは月毎に参照することで、 演奏の上達程度を容易に管理す ることができる。 図面の簡単な説明 図 1は、 演奏システムの構成を示すブロ ック図でめる。
図 2は、 コン トロニラの構成を示すブロ ック図'である。
図 3は、 演奏端末の構成を示すブロ ック図であ Ό。
図 4ば、 楽曲データの一例を示す図である。
図 5は、 パー ト割り当てテーブルの一例を示す図である。
図 6は、 メイ ン操作ウィンドウを示す図である
図 7は、 合奏ウィンドウを示す図である。
図 8 Aは 、 拍打数のセッティングを示す図であり、 図 8 Bは、 打鍵タ ヽ ングとなる拍子 ( 1拍目、 3拍目) と打鍵タイ ミングとならない拍
( 2拍目 、 4拍目) のアイ コン表示例を示す図である。
図 9は、 現在の拍打の推移を示す図である。
図 1 0は 、 演奏端末 「Fac i l i tator」 との拍打のズレを説明す.る図であ 図 1 1は 、 演奏履歴の一例を示す図である。
図 1 2は 、 ログ作成シーケンスを示すフローチヤートである。 明を実施するための最良の形態
以下 、 本発明の実施の形態を図面を参照しながら詳説する。
図 1は、 合奏システムの構成を示すブロ ック図である。 同図に示すよ う に、 この合奏システムは、 コン ト ローラ 1 と、 コン トローラ 1 に M l D Iインタフェースボックス 3を介して接続される複数 (同図において は 6台) の演奏端末 2 A〜 2 Fとを備えている。 複数の演奏端末 2のう ち、 演奏端末 2 Aはファシリテータ (ガイ ド役) 用演奏端末となり、 演 奏端末 2 B〜 2 Fは参加者 (生徒役) 用演奏端末となる。 演奏端末 2 B 〜 2 Fを使用する 5人の参加者は、 常に同じ演奏端末 2を使用する。 こ れによ り、 ファシリテータは演奏端末で参加者の識別が可能となる。 コン トロ一ラ 1は、 例えばパーソナルコンピュータにより構成され、 このパーソナルコンピュータに搭載されたソフ トウエアによって各演奏 端末 2の制御およびデータの収集を行う。 コン ト ローラ 1は複数パート からなる演奏曲データを記憶している。 これらのパートは、 1または複 数のメ 口ディパート、リズムパート、及ぴ伴奏パー ト等からなっている。 コントローラ 1は、 各パート (または複数のパート) の発音データをそ れぞれの演奏端末 2に送信する、 後述の通信部 1 1 を備えている。
演奏端末 2は、 使用者が演奏操作を行う と ともに、 この使用者の演奏 操作に応じた楽音を発生するものであり、 例えば電子ピアノ等の電子鍵 盤楽器により構成される。 本実施の形態では、 コントローラ 1 と U S B で接続されている M I D Iインタフェースボックス 3を用い、 各演奏端 末 2を別々の M I D Γ系統で接続している。 同図においては演奏端末 2 Aをファシリテータ用の演奏端末とする。 ファシリテータ用の演奏端末 の指定はコン ト ローラ 1にて行う。 なお、 演奏端末 2は電子ピアノ.に限 らず、 電子ギター等の他の形態の電子楽器であってもよい。 また、 外観 上は自然楽器に限らず単にボタン等の操作子を備えた端末であってもよ レヽ 0
なお、 演奏端末 2が音源を内蔵する.必要はなく、 独立した音源をコン トローラ 1に接続してもよい。 この場合、 コン トローラ 1に接続する音 源の数は 1つであってもよいし.、 演奏端末 2 と同じ数であってもよい。 演奏端末 2 と同じ数の音源を接続する場合、 コン ト ローラ 1はそれぞれ の音源と演奏端末 2を対応付けて演奏曲データの各パートを割り当てる ようにすればよレ、。
この合奏システムは、 コン ト ローラ 1が記憶している演奏曲データの 複数の演奏パー トを、 複数の演奏端末 2にそれぞれ割り 当て、 各演奏端 末 2が独自に割り当てられた演奏パ一トの自動演奏を進めていく。 使用 者が演奏端末 2を用いて演奏操作 (例えば電子ピアノの鍵盤を打鍵) を 行う と、 コン トローヲ 1にテンポとタイ ミングの指示が送信される。 コ ントローラ 1は、 入力されたテンポとタイ ミングの指示に基づいてその 演奏端末' 2に割り当てた演奏パー トの各音符の発音指示を演奏端末 2に 送信する。 演奏端末 2は受信した発音指示に基づいて自動演奏を行う。 各演奏端末 2を使用する生徒がファシリテータに合わせてテンポをとる ことで合奏が成立する。 以下、 コン ト ローラ 1 と演奏端末 2の構成につ いて詳細に説明する。
'図 2は、 コン ト ローラ 1 の構成を示すブロック図である。 同図に示す ように、 コン ト ローラ 1は、 通信部 1 1、 制御部 1 2、 HD D 1 3、 R AM 1 4、 操作部 1 5、 および表示部 1 6を備えている。 制御部 1 2に は通信部 1 1 、 HD D 1 3、 R AM I 4、 操作部 1 5および表示部 1 6 が接続されている。
通信部 1 1は、 演奏端末 2 と通信を行う回路部であり、 U S Bインタ フェース (不図示) を有している。 この U S Bイ ンタフェースには、 M I D I イ ンタフェースボックス 3が接続され、 通信部 1 1 はこの M I D Iインタフェースボックス 3及び M I D I ケーブルを介して 6台の演奏 端末 2 と通信する。 HD D 1 3は、 コントローラ ΐ φ動作用プログラム や、 複数パ一 トからなる演奏曲データを記憶している。
制御部 1 2は、 H D D 1 3に記憶されている動作用プログラムを読み 出してワークメモリである R. AM I 4に展開し、 パー ト割り当て処理 5 0 , シーケンス処理 5 1、 および発音指示処理 5 2等を実行する。 パー ト割り当て処理 5 0では、 制御部 1 2は演奏曲データの各演奏パー トを 複数の演奏端末 2に割り当てる。 シーケンス処理 5 1 では、 制御部 1 2 は各演奏端末 2から受信したテンポ、 タイ ミングの指示に応じて演奏曲 データの各演奏パートをシーケンス (各音の音高、音長等の決定)する。 発音指示処理 5 2では、 制御部 1 2はシーケンス処理 5 1で決定した各 音の音高、 音長等を発音指示データと して演奏端末 2に送信する。 操作部 1 5 は、 使用者 (主にファシリ テータ) がこの演奏システムの 動作指示を行うためのものである。 ファシリテータは、 操作部 1 5を操 作し、 例えば演奏する演奏曲データを指定したり、 各演奏端末 2の演奏 パー トを割り当てたりする。 表示部 1 6は、 ディスプレイ (モニタ) で あり、 ファシリテータや各参加者.はこの表示部 1 6を見ながら演奏操作 を行う。 詳細は後述するが、 表示部 1 6には合奏を行うための様々な情 報が表示される。
図 3は、 演奏端末 2の構成を示すブロック図である。 同図に示すよ う に、 演奏端末 2は、 通信部 2 1、 制御部 2 2、 演奏操作子である鍵盤 2 3、 音源 2 4、 およびス ピーカ 2 5を備えている。 制御部 2 2には通信 部 2 1、 鍵盤 2 3、 および音源 2 4が接続されている。 また、 音源 2 4 にはスピーカ 2 5が接続されている。
通信部 2 1は、 M I D Iインタフェースであり、 M I D I ケーブルを 介してコントローラ 1 と通信する。 制御部 2 2は、 演奏端末 2を統括的 に制御する。 鍵盤 2 3は、 例えば 6 1鍵や 8 8鍵の鍵数を有し、 5〜 7 オクターブの音域の演奏が可能であるが、 この合奏システムでは鍵を区 別せずにノー トオン/ ^ノー 卜オフメ ッセージ及ぴ打鍵強さ (Veloci ty) のデータのみを用いる。 すなわち各鍵には、 オン オフを検出するセン サと打鍵の強さを検出するセンサとが內蔵されており、 鍵盤 2 3は各鍵 の操作態様 (どの鍵がどのよ うな強さで打鍵されたか等) に応じて操作 信号を制御部 2 2に出力する。 制御部 2 2は、 入力された操作信号に基 づき、 通信部 2 1を介してコントローラ 1にノー トオンメ ッセージゃノ ー トオフメ ッセージを送信する。 音源 2 4は、 制御部 2 2の制御に応じ て楽音波形を生成し、 音声信号と してスピーカ' 2 5に出力する。 スピ一 力 2 5は、音源 2 4から入力された音声信号を再生し、楽音を発音する。 なお、 上述したように、 音源 2 4 とスピーカ 2 5 .は演奏端末 2に内蔵し ていなく てもよい。音源 2 4とス ピーカ 2 5をコン ト ローラ 1に接続し、 演奏端末 2 と異なる場所から楽音が発音されるようにしてもよい。 各演 奏端末 2 と同じ数の音源をコン トローラ 1に接続してもよいが、 単一の 音源を用いてもよい。
上記の動作では、 鍵盤 2 3を打鍵したとき、 制御部 2 2はノートオン Zノートオフメ ッセージをコントローラ 1に送信 (ローカルオフ) し、 鍵盤 2 3によるノー トメ ッセージではなく、 コン トローラ 1からの指示 に応じて楽音を発音するが、 演奏端末 2は上記の様な動作とは別に、 一 般的な電子楽器と して使用することも可能である。 鍵盤 2 3を打鍵した とき、制御部 2 2はノートメ ッセージをコントロー 1 に送信せずに.(口 一カルオン) 、 当該ノー トメ ッセージに基づいて音源 2 4に楽音を発音 するように指示することも可能である。 ローカルオン、 ローカルオフは 使用者がコン ト ローラ 1 の操作部 1 5を用いて切替えてもよいし、 演奏 端末 2の端末操作部 (図.示せず) で切替えてもよい。 また、 一部の鍵盤 のみローカルオフし、 他の鍵盤はローカルオンとなるよ うに設定するこ とも可能である。
次に、 上記のような合奏システムを用いて合奏を行うための動作につ いて説明する。 使用者 (特にスァシリテータ) は、 コン トローラ 1 の操 作部 1 5を用いて演奏曲データを選択する。 演奏曲データは M I D I規 格に基づいて予め作成されたデータ (スタンダー ド M I D I ) であり、 コン トローラ 1 の H D D 1 3 に記憶されている。 この楽曲データの一例 を図 4に示す。 同図に示すように、 演奏曲データは、 複数の演奏パー ト からなり、 各演奏パートを識別する識別情報と、 各演奏パー トの演奏情 報とを含んでいる。 使用者が演奏曲データの選択を行う と、 コントローラ 1は接続されて いる各演奏端末 2のそれぞれに演奏パートを割り当てる。 どの演奏端末 にどの演奏パー トを割り当てるかは、 予めテーブルに規定しておく。 図 5は、 演奏パー ト割り当てテーブルの一例を示す図である。 同図に示す ように、 演奏パート 1には、 M I D Iポート 0 (ファシリテータ用演奏 ^末) が対応しており、 例えば図 1においては演奏端末 2 Aに演奏パー ト 1が割り当てられる。 M I D I ポートは M I D I イ ンタフェースボッ クス 3のポート番号を示しており、 各演奏端末 2はその接続されている M I D I ポートで識別されている。 以下同様に演奏パー ト 2には M I D I ポート 1 (ピアノ 1 ) が対応し、 例えば図 1 においては演奏端末 2 B に演奏パート 2が割り当てられる。 このように、 各演奏端末 2にそれぞ れ自動的に演奏パー ト'が割り当てられる。 この演奏パー ト割り当てテー ブルは事前にファシリテータがコン トローラ 1の H D D 1 3に登録した ものである。 なお、 ファシリテータがコントローラ 1の操作部 1 5を用 いてマニュアル選択するようにしてもよレ、。
なお、 各演奏端末 2が U S Bポートに接続されている場合は、 各演奏 端末 2を U S Bポ一 ト番号で識別するよ うにすればよい。
ファシリテータが演奏曲データを選択し、 コン ト ローラ 1によ り各演 奏端末 2に演奏パー トが割り当てられると、 ファシリテータによってコ ン ト ローラ 1 の操作部 1 5 は演奏開始スタンパイの指示を入力する。 こ こで言う演奏開始スタンバイ とは実際に楽音を発生する意味ではなく、 コン トローラ 1が H D D 1 3から R A M I 4へ演奏曲デ一タを読み出し て演奏動作を行うための準備状態とすることである。
• 演奏開始スタンバイの指示が操作部 1 5に入力され、 コン ト ローラ 1 が演奏準備を行う と、 各演奏端末 2では演奏が可能となる。 この合奏シ ステムにおいては、 複数の使用者がファシリテ一タ (合奏リーダ) の演 奏に合わせて演奏操作を行う。 つまり、 単にお手本演奏 (機械デモ演奏) に合わせて演奏するのではなく、 ファシリテータの演奏 (人間の演奏) に合わせて各使用者が演奏を行う ので、 実際に合奏をしているという実 感を得ることができる。
合奏中における合奏システムの動作について説明する。 各使用者が演 奏端末 2の操作子 (鍵盤) 2 3を指で押すと、 制御部 2 2は鍵盤 2 3を 押した強さに応じてノー トオンメ ッセージをコン トローラ 1に送信する。 ノートオンメ ッセージには打鍵の強さ(V e l oc i t y)等の情報が含まれる。 また、 鍵盤 2 3を元に戻す (指を離す) と、 制御部 2 2は、 ノートオフ メ ッセージをコン ト ローラ 1に送信する。 コントローラ 1は、 演奏端末 2から受信したノー トオンメ ッセージ及びノートオフメ ッセージに基づ いて、 その演奏端末 2に割り当てた演奏パー トのうち、 所定長さ分 (例 えば 1拍分)の演奏曲データの各音の音高、音長等を決定し、.その音高、 音長等が決定された演奏曲データを発音指示データと して演奏端末 2に 送信する。 発音指示データには、 発音すべきタイ ミング、 音長、 強度、 音色、 効果、 音高変化 (ピッチベンド) や、 テンポ等が含まれる。
コン ト ローラ 1 は、 ノー トオンメ ッセージを受信してからノー トオフ メ ッセージを受信するまでの時間に基づいて上記発音指示データを決定 する。 具体的には、 ノートオンメ ッセージが入力されたときに、 演奏曲 データのうち該当する演奏パー トの所定長さ分 ( 1拍分等) の演奏情報 を読み出して発音すべきタイ ミング、 音色、 効果、 音高変化等を決定す る。 また、 コン トローラ 1 は、 ノー トオンメ ッセージの Ve l o c i t y情報か ら発音強度を決定する。 演奏曲データの演奏情報には音量を示す情報が 含まれており、 この音量に V e l oc i t y情報を乗算して強度を決定する。 つ まり、 演奏曲データには、 その曲中のボリ ューム表現 (音の強弱) を考 慮した音量情報が予め含まれているが、 各使用者が鍵盤を押した強さに 応じた強弱表現が追加され、 発音強度が決定される。
コントローラ 1は、 ノートオフメ ッセージが入力されたとき、 ノート オンメ ッセージが入力されてからの時間を測定する。 ノ一 トオフメ ッセ —ジが入力されるまでは、 最初に発音した楽音をそのまま発生し、 ノー トオフメ ッセージが入力されたときにその拍分のテンポ、 各音の音長を 決定して次の楽音を発音する。
なお、 ノー トオンからノー トオフまでの時間 (GateTimeとする) から 単純にテンポを決定してもよいが、 以下のようにしてテンポを決定して もよい。 すなわち、 複数回 (直近から数回前) の打鍵について、 Gat eT ime の移動平均を算出し、 これに時間による重み付けを行う。 直近の打鐽に ついて最も重み付けを大きく し、 過去の打鍵になるほど重み付けを小さ くする。 このよ う にしてテンポを決定することで、 ある打鍵の時のみ Gat eT i meが大きく変化したと しても突然にテンポが変化せず、 曲の流れ に応じて違和感無くテンポ変化を行う ことができる。
演奏端末 2の制御部 2 2は、 上記のようにコントローラ 1が決定した 発音指示データを受信し、 音源 2 4に楽音波形の生成を指示する。 音源 2 4は、 楽音波形を生成し、 スピーカ 2 5から楽音を再生する。 各使用 者が鍵盤 2 3を押す毎に上記の処理が繰り返され、 例えば 1拍毎に鍵盤 2 3を押すことで曲の演奏を行う ことができる。
なお、 上記のよ うに、 ノー トオフメ ッセージが入力されるまでは、 最 初に発音した楽音をそのまま発生するので、 使用者が鍵盤 2 3から指を 戻すまでは同一楽音を鳴らし続けること となり、 この合奏システムにお いては、音を延ばす演奏表現(フェルマータ)を実現することができる。 また、 上記のよ うにして Ga t eT i meの移動平均によりテンポを決定する ことで、 以下のよ うな演奏表現を実現することもできる。 例えば、 ある 打鍵の時のみ鍵盤 2 3を短くボンと押された場合、 その拍分の各音の音 長を短く し、 一方で鍵盤 2 3がゆったり と押された場合その拍分の各音 の音長を長くする。 これによ り、 テンポは大きく変化しないが各音の歯 切れをよくする演奏表現 (スタッカート) を実現したり、 テンポを大き く変化声せずに音の長さを保つ演奏表現 (テヌー ト) を実現したりする ことができる。 .
なお、 本実施の形態においては演奏端末 2 A〜 2 Fのいずれの鍵盤 2 3を打鍵したと してもノー トオンメ ッセージ、 ノートオフメ ッセージが コン トローラ 1に送信されるが、 上記のスタッカー トゃテヌー卜が効く 鍵盤と効かない鍵盤を分けてもょレ、。 コントローラ 1は、特定の鍵盤(例 えば E 3 ) からのノートオンメ ッセージ、 ノー トオフメ ッセージが入力 された場合のみ、 テンポを保ちながら音長を変化させるようにすればよ レヽ
次に、 表示部 1 6に表示されるユーザインタフェースについて説明す る。 図 6は、 '表示部 1 6に表示されるメイン操作ウィンドウである。 こ のウィ ン ドウの上部テキス トフィールドには使用者が選択した演奏曲デ ータ名が表示される。 「Setting」 フィールド内にはそれぞれの演奏端末 (Facilitator, Pianol〜5) が表示されており、 各演奏端末毎に出欠を 選択するプルダウンメニューと、 演奏パートを割り てるラジォボタン が表示されている。 演奏端末 (Facilitator, Pianol〜5) は、 M I D I インタフェースボックス 3の M.I D I.ポー トにそれぞれ対応付けられて いる。
出欠のプルダウンメニューは生徒の出欠に応じてファシリテータが選 択入力する。 ラジオボタンは、 演奏曲データにおいて演奏パートが割り 当てられている演奏端末のみ表示される。
この図における例では、 選択した演奏曲データに演奏パート 1 、 2、 3、 および 1 0が設定されており、 この演奏曲データを選択すると、 上 記図 5のテ一ブルに従って順に演奏端末 「Facilitator」 、 「Pianol」 、 「Piano2」 、 および 「Piano3」 が演奏パート 1 、 2、 3、 および 1 0に 自動的に割り 当てられる。 なお、 同図中では選択した演奏曲データに 4 つの演奏パートのみが含まれているため、 演奏端末 「Facilitator」 、 お よび 「Pianol〜3j にのみ演奏パートが割り 当てられているが、 例えば演 奏曲データ に 6 つの演奏パー トが含まれている場合は、 演奏端末 「FacilitatorJ および 「Pianol〜5j のそれぞれに演奏パートが割り当 てられる。 M I D I ポー ト (演奏端末) よ り も演奏パー トの数が多い場 合は、 演奏端末 「Facilitator」 に複数の演奏パートを割り当てる。 ここ で、 コン トローラ 1を操作する使用者 (ファシリテータ) がラジオボタ ンを選択することで各演奏パートを好みの演奏端末にマニュアル選択す ることも可肯 gである。 また、 「FacilitatorOnly」 のチェックボックスを 選択すると全ての演奏パー 卜が演奏端末「Facilitator」 に割り当てられ る。 なお、 プルダウンメニューが 「欠席」 とされた演奏端末にはラジオ ボタンが表示されず、 演奏パー トが割り当てられない。
また、 図 5のテーブルに基づいて自動で演奏パートの割り当てを'行う 場合も 「出席」 「欠席」 のプルダウンメニューについて、 「欠席」 が選 択されている場合、 その演奏端末に割り 当てられるべき演奏パートは演 奏端末 「Facilitator」 に割り当てられる。 なおこの場合、 「欠席」 の演 奏パートを音色や役割関係の近い演奏パー ト (例えばドラムスに対して ベース、 弦楽器群等) が割り当てられている他の演奏端末に代替して割 り当てるようにしてもよい。 関連する演奏パー トは予めテーブルにより 規定しておけばよい。
演奏パー ト.の割り当て後に、 ウィンドウ中央左部に表示されている演 奏コ ン ト ロ ールボタンのうち Startボタンを押下すると演奏開始ス タ ン バイとなり、 図 7に示す合奏ウィンドウが表示部 1 6に表示される。 こ のウィンドウにおいても上部テキス トフィールドには選択した演奏曲デ ータ名が表示される。' ウィ ンドウ上部右側には選択している演奏曲デー タの小節数と現在演奏中の小節が表示されている。 ウィン ドウ中央上部 に表示されている拍打数フィールド (BeatSe tt i ng) には 1小節内の拍打 数を設定するラジオボタンが表示されている。 同図においては 1小節が 4拍子 Z 4分の曲データについて演奏をするので、 拍打数を 4に設定す ると 1拍毎に打鍵すること となる。 また、 図 8 Aに示すよ うに、 この演 奏曲において拍打数 2のラジオボタンを選択すると、 1拍おきに打鍵す ること となり、 1拍目、 3拍目が打鍵タイ ミングとなる。 この場合、 コ ントローラ 1は、 演奏端末 2からノー トオンメ ッセージとノートオフメ ッセージが送信されると、 2拍分の発音指示データを返信する。つまり、 1回の打鍵ャ 2拍分の演奏がされることになる。
図 7において、合奏ウィン ドウ中央左側には各演奏端末(Fac i l i t ator、 P i ano l , P i ano2、 P i ano3) 毎に現在の小節数、 小節内の拍子数 (小節内 で打鍵すべき数) 、 および現在の拍打 (現在の打鍵タイ ミング) が表示 される。 打鍵すべき数は同図に示すよ うに内部に数字が記入ざれた四角 状のアイ コンで表示され、 現在の拍打は立体四角状又は太字のアイ コン で表示される。 表示方式は、 この例のアイコンに限るものではなく、 他 の形状のアイコンであってもよレ、。 なお、 図 8 Bに示すように、 打鍵タ イ ミングとならない拍子 ( 2拍.目、 4拍目) は丸数字等、 別の形状のァ ィコンに変更して表示する。
使用者が打鍵すると、 現在の拍打は図 9に示すよ うに 1拍ずつ推移す る。 つまり、 打鍵毎に 1拍目、 2拍目、 3拍目、 4拍目 と順に立体四角 状又は太字のアイコンが変更される。 この例における演奏曲データは、 4拍子ノ 4分の曲データであるため、 4拍目の次の打鍵を行う と 1拍目 に戻り、 1小節進行すること となる。 図 7において、 ウィンドウ中央右側には演奏端末 「Facilitator」 との 拍打のズレを示すフィールドが表示されている。 このフィールドには縦 方向に複数のライン (例えば 5本) が表示され、 それぞれの演奏端末に 対応して横方向にラインが表示されている。 また、 それぞれの演奏端末 に対応して丸印が表示されている。 この丸印が演奏端末 「Facilitator」 とのズレを示す。
図 1 0は、 演奏端末 「 Facilitator^ との拍打のズレを説明する図であ る。 同図に示すように、 演奏端末 「Facilitator」 に対応する丸印は、 縦 方向のラインのうち中心ラインに固定して表示される。 各使用者の演奏 端末 (例えば 「Pianol」 ) に対応する丸印は、 演奏端末 「Facilitator」 との拍打のズレに応じて左右に移動する。例えば演奏端末「Facilitator」 より も 1小節分 (この例においては 4拍分) 打鍵が'遅れると、 同図に示 すよ うに縦方向のライン 1つ分左方向に丸印が移動する。 半小節分 ( 2 拍分) 遅れた場合は縦方向の中心ラインから左方向にライン間隔の半分 だけ丸印が移動する。 一方で、 演奏端末 「Facilitatorj より も打鍵が早 い場合は丸印が右方向に移動することとなる。 同図においては中心ライ ンから左右に 2ライン表示されているので、 2小節分の拍打のズレが表 示できること となる。 2小節以上拍打のズレが発生した場合は左右端の ライン上でアイコンを変更する(例.えば四角状のアイコンに変更する)。 このようにして、 各使用者はファシリテータとの演奏 (拍打) のズレを 容易に認識することができる。
なお、 基準となる演奏端末は演奏端末 「FacilitatorJ に限るものでは ない。 複数の演奏端末 2のうち、 いずれか 1つを基準と してその演奏端 末 2 との拍打のズレ量を表示するよ うにしてもよい。
また、 上記演奏端末 「Facilitator」 との拍打のズレを示すブイ一ルド は、 コン トローラ 1 の表示部 1 6に表示する例に限らず、 各演奏端末 2 に設置した演奏端末用の表示部 (図示せず) に表示するようにしてもよ い。
以上のようにして、 各使用者は指一本で鍵盤を押すという容易な操件 で演奏を行う ことができ、表示部 1 6に示される演奏端末「Fac i l i tator」 との演奏 (拍打) のズレをなくすように操作を行うことで、 複数人で楽 しみながら合奏を行うことができる。
また、 この合奏システムでは、 コン トローラ 1が 1 曲を演奏する毎に 各使用者の出欠、 打鍵回数、 打鍵強さ、 ズレ量等を自動的に H D D 1 3 に記録する。 ファ シリテータは記録された履歴を参照することでそのグ ループの出欠管理を容易に行う ことができ、 日々毎、 週毎、 あるいは月 毎に各使用者がどの程度上達したか 容易に管理することができる。 以 下、 演奏履歴記録について説明する。
図 1 1は、 演奏履歴の一例を示す図である。 同図に示す演奏履歴は、 コン ト ローラ 1力 各演奏端末 2 の演奏操作に応じて各項目 の数値を記 録し、演奏終了後にテキス トデータである CSV ( Comma S epara t ed Va lues ) 等のファイル形式で出力する。 記録された演奏履歴は表計算ソフ ト等で 表示する。 ファシリテータによって、 図 6に示した演奏コン トロールボ タンの うち Startボタンが押下されて演奏開始が指^されると、各項目 の 記録が開始される。 各項目は演奏曲 1 曲毎に記録する。 日付、 曜日、 時 刻の項目はファシリテータが Startボタンを押して演奏開始を指示した 日付、 曜日、 時刻を記録する。 ファ シリ テータが演奏開始を指示したと き、 図 6の 「出席」 「欠席」 のプルダウンメニューについて、 「出席」 が選択されている M I D I ポートの出欠項目を 1 と し、 「欠席」 が選択 されている M I D I ポー トの出欠項目を 0 と して記録する。 図 1 1に示 す演奏履歴の 「出欠 (Fa ) 」 項目に 「 1」 が表示されていれば、 演奏端 末 「FaC i l i tator」 がその演奏曲の演奏に参加したことを意味する。 同様 に 「出欠 (PI) 」 項目に 「 1」 が表示されていれば演奏端末 「Pianol」 がその演奏曲の演奏に参加したことを意味する。 「 0」 が表示されてい れば演奏に参加していない、すなわち「欠席」であったことを意味する。 コン トローラ 1は、 Startボタンが押されてから Stopボタンが押される まで、 または 1曲分の演奏が終了するまで、 备演奏端末 2の打鍵 (ノー トオンメ ッセージの入力) をカウントし、 集計する。 図 1 1に示す演奏 履歴の「Keyon(Fa)」項目は、その演奏曲における演奏端末「Facil itatorj の総打鍵数を示すものである。 同様に 「Keyon (PI) 」 項目はその演奏曲 における演奏端末 「Pianol」 の総打鍵数を示すものである。
また、 コントローラ 1は、 Startボタンが押されてから Stopボタンが押 されるまで、 または 1曲分の演奏が終了するまで、 各演奏端末 2から入 力される Velocityの値を記録し、 上記総打鍵数'を用いて 1 曲中の Velocity平均値を算出する。 図 1 1 に示す演奏履歴の 「平均 V (Fa) 」 項 目は、 その演奏曲における演奏端末 「Facilitator」 の平均 Velocityの値 を示すものである。
また、 コントローラ 1は、 Startボタンが押されてから Stopボタンが押 されるまで、 または 1 曲分の演奏が終了するまで、 各演奏端末と演奏端 末 「FacilitatorJ の打鍵タイ ミングのズレを記録し、上記総打鍵数を用 いて平均値を算出する。コントローラ 1は、演奏端末「Facilitator」 と、 現在ノー トオンメッセージが入力された演奏端末について、 同一小節、 同一拍子の打鍵がされた時の時間差を計算し、 その時間を演奏端末 「Facilitator」 とのズレ量と して記録し、 集計する。 図 1 1に示す演奏 履歴の 「平均ズレ (P1) 」 項目はその演奏曲における演奏端末 「Pianol」 と演奏端末「Facilitator」の平均打鍵タイ ミ ングズレを示すものである。 この値が小さいほど 1 曲の演奏において演奏端末「Facilitator」 との打 鍵タイ ミングズレが少なく、 上手く演奏できたことを意味する。 以上のようにして、 各演奏端末 2の演奏への参加状態、 打鍵数、 打鍵 強さ、 ズレ量等が演奏曲毎に記録、 蓄積されるので、 ファシリテータは 各参加者の状態を一目に把握することができる。
次に、 'コン トローラ 1が上記演奏履歴を記録する動作について詳細に 説明する。 図 1 2は、 コン ト ローラ 1のログ作成シーケンスを示すフロ 一チャートである。 ファシリテータが操作部 1 5を用いて演奏の開始を 指示 (演奏コントロールポタンのうち Startボタンを押下)することがこ のシーケンスの ト リガとなる。 コントローラ 1の制御部 1 2によ り本シ 一ケンスは実行される。
まず、 「出席」が選択されている M I D I ポートの出欠項目を 1 と し、 「欠席」 が選択されている M I D I ポートの出欠項目を 0 と して RAM 1 4に一時記録する ( s 1 1 ) 。 その後、 ノートオンメ ッセージが受信 されたか否かを判断する ( s i 2 ) 。 ノートオンメ ッセージが受信され るまではこの判断を繰り返す。ノー トオンメ ッセージが受信された場合、 その演奏端末 2の打鍵数をカウントし、 入力された Velocityの値を R A M l 4に一時記録する ( s 1 3 ) 。 また、 痹奏端末 「Facilitator」 との 時間ズレを RAM I 4に一時記録する ( s 1 4 ) 。 ここでは、 演奏端末 「FacilitatorJ と、現在ノー トオンメ ッセージが入力された演奏端末に ついて、 同一小節、 同一拍子の打鍵がされた時の時間差を計算し、 その 時間を演奏端末「 Facilitator J とのズレ量と して RAM I 4に一時記録 する。
その後、 演奏曲データが最後まで再生され、 1曲分の演奏が終了した か、 またはファシリテータが演奏コントロ一ルボタンのうち Stopボタン を押下して、演奏の中止指示が入力されたか否かを判断する ( s 1 5 )。 演奏が終了、 中止していなければノー トオンメ ッセージの受信判断から 処理を繰り返す ( s 1 5→ s 1 2 ) 。 演奏が終了、 または中止'された場 合、 R AM I 4に一時記録していた各項目の数値を集計する ( s 1 6 )。 1曲分の総打鍵数を集計し、その打鍵数で Velocityの平均値を算出する。 また、 演奏端末 「FacilitatorJ とのズレ量の平均値も算出する。 最後に これらの集計値をテキス トデータと して HD D 1 3に記録する( s 1 7 )。 以上のようにして各参加者のログが記録されるので、 ファシリテータ は、 演奏の開始、 終了を指定するだけで出欠管理を容易に行うことがで きる。 また、 日 々毎、 週毎、 あるいは月毎に各参加者がどの程度上達し たかを容易に管理することができる。 例えば 「欠席」 が増える傾向にあ る場合はその参加者は「レッスンがきつい」と感じている可能性が高く、 ウェルネス活動のプログラムを構成する上での有効な情報となる。また、 各参加者も上記のよ うなログを参照十ることで自分の上達具合を認識す ることができ、 合奏参加への意欲を得ることができる。 また、 複数のグ ループ間での比較や競争等も行うことができ、 各参加者の練習ゃゥ ル ネス活動への動機付けの一つと して用いることができる。 ' 産業上の利用可能性
本発明によれば、 各参加者の出欠管理を容易に行う ことができ、 日 々 毎、 週毎、 あるいは月毎にどの程度上達したかを容易に管理することが できる。 また、 複数の参加者間又はグループ間での比較等を行う ことが でき、 合奏参加への動機付けの一つと して用いることができる。

Claims

請 求 の 範 囲
1 . 演奏操作を行うための少なく とも 1つの演奏操作子を各々備える複 数の演奏端末と、 少なく とも 1つの音源と、 前記複数の演奏端末および 前記少なく とも 1 つの音源に接続され、 各演奏端末を制御するコン ト口 ーラ と、 からなる合奏システムであって、
前記コントローラは、
複数の演奏パー トからなる演奏曲データを記憶する記憶手段と、 演奏の開始、 および終了を指示するための操作手段と、
前記複数の演奏パートを前記複数の演奏端末に割り 当て、 各演奏端末 の演奏操作子の操作態様に応じて、 その演奏端末に割り当てられている 演奏パートを読み出し、 当該読み出した演奏パー トのデータを前記音源 に出力する演奏制御手段と、
各演奏端末の使用および不使用を記録し、 演奏の開始から終了までの 各演奏端末の演奏履歴を記録する記録手段と、
を備えることを特徴とする合奏システム。
2 . 当該音源は、 前記複数の演奏端末の各々に内蔵され、
前記コントローラの演奏制御手段は、 前記読み出した演奏パートのデ ータを、 その演奏パー トが割り当てられている演奏端末に内蔵された音 源に出力することを特徴とする請求の範囲第 1項に記載の合奏システ ム。
3 . 前記演奏履歴は、 演奏操作の回数および演奏操作の平均強さの情報 を含むことを特徴とする請求の範囲第 1項又は第 2項に記載の合奏シス テム。
4 . 前記演奏履歴は、 前記演奏端末のうちガイ ド役用演奏端末の演奏操 作との平均ズレ量の情報を含むことを特徴とする請求の範囲第 1項乃至 第 3項のいずれか 1つに記載の合奏システム。
PCT/JP2006/315070 2005-09-12 2006-07-24 合奏システム WO2007032155A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06768379A EP1926080A4 (en) 2005-09-12 2006-07-24 ASSEMBLY SYSTEM
US12/066,519 US7939740B2 (en) 2005-09-12 2006-07-24 Ensemble system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-263144 2005-09-12
JP2005263144A JP4797523B2 (ja) 2005-09-12 2005-09-12 合奏システム

Publications (1)

Publication Number Publication Date
WO2007032155A1 true WO2007032155A1 (ja) 2007-03-22

Family

ID=37864755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/315070 WO2007032155A1 (ja) 2005-09-12 2006-07-24 合奏システム

Country Status (6)

Country Link
US (1) US7939740B2 (ja)
EP (1) EP1926080A4 (ja)
JP (1) JP4797523B2 (ja)
KR (1) KR20080051169A (ja)
CN (1) CN101263551A (ja)
WO (1) WO2007032155A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4797523B2 (ja) 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4692189B2 (ja) 2005-09-28 2011-06-01 ヤマハ株式会社 合奏システム
JP4752425B2 (ja) 2005-09-28 2011-08-17 ヤマハ株式会社 合奏システム
JP5169328B2 (ja) * 2007-03-30 2013-03-27 ヤマハ株式会社 演奏処理装置及び演奏処理プログラム
JP5109127B2 (ja) * 2007-06-01 2012-12-26 株式会社メガチップス 合奏システム
JP5630155B2 (ja) * 2009-09-14 2014-11-26 ヤマハ株式会社 記憶システムおよび記憶装置
JP2014219558A (ja) * 2013-05-08 2014-11-20 ヤマハ株式会社 音楽セッション管理装置
JP6274985B2 (ja) * 2014-06-25 2018-02-07 株式会社第一興商 音楽療法支援装置
JP6271362B2 (ja) * 2014-07-22 2018-01-31 株式会社第一興商 音楽療法支援システム及び音楽療法支援装置
US9672799B1 (en) * 2015-12-30 2017-06-06 International Business Machines Corporation Music practice feedback system, method, and recording medium
US10311841B2 (en) * 2017-11-06 2019-06-04 Pearl Musical Instrument Co. Electronic mallet controller with range adjustment/low note assignment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2004093613A (ja) 2002-08-29 2004-03-25 Yamaha Corp 演奏処理装置、データ管理装置、評価用装置、データ管理システム、データ管理方法およびプログラム
JP2004184757A (ja) * 2002-12-04 2004-07-02 Casio Comput Co Ltd 学習結果表示装置、及びプログラム
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3808936A (en) * 1970-07-08 1974-05-07 D Shrader Method and apparatus for improving musical ability
US3919913A (en) * 1972-10-03 1975-11-18 David L Shrader Method and apparatus for improving musical ability
US3823637A (en) * 1973-01-19 1974-07-16 Scott J Programmed audio-visual teaching aid
US3895555A (en) * 1973-10-03 1975-07-22 Richard H Peterson Teaching instrument for keyboard music instruction
JPS5692567A (en) * 1979-12-27 1981-07-27 Nippon Musical Instruments Mfg Electronic musical instrument
JPS5871797U (ja) * 1981-11-10 1983-05-16 ヤマハ株式会社 電子楽器
JPS61254991A (ja) * 1985-05-07 1986-11-12 カシオ計算機株式会社 電子楽器
US5002491A (en) * 1989-04-28 1991-03-26 Comtek Electronic classroom system enabling interactive self-paced learning
US5521323A (en) 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3528230B2 (ja) 1994-03-18 2004-05-17 ヤマハ株式会社 自動演奏装置
JP3417662B2 (ja) 1994-06-30 2003-06-16 ローランド株式会社 演奏分析装置
US6448486B1 (en) * 1995-08-28 2002-09-10 Jeff K. Shinsky Electronic musical instrument with a reduced number of input controllers and method of operation
US6441289B1 (en) * 1995-08-28 2002-08-27 Jeff K. Shinsky Fixed-location method of musical performance and a musical instrument
JP3453248B2 (ja) * 1996-05-28 2003-10-06 株式会社第一興商 通信カラオケシステム、カラオケ再生端末
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US6084168A (en) * 1996-07-10 2000-07-04 Sitrick; David H. Musical compositions communication system, architecture and methodology
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7074999B2 (en) * 1996-07-10 2006-07-11 Sitrick David H Electronic image visualization system and management and communication methodologies
US7423213B2 (en) * 1996-07-10 2008-09-09 David Sitrick Multi-dimensional transformation systems and display communication architecture for compositions and derivations thereof
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
US5952597A (en) * 1996-10-25 1999-09-14 Timewarp Technologies, Ltd. Method and apparatus for real-time correlation of a performance to a musical score
JP3371791B2 (ja) * 1998-01-29 2003-01-27 ヤマハ株式会社 音楽教習システムおよび音楽教習装置、ならびに、音楽教習用プログラムが記録された記録媒体
JP3277875B2 (ja) * 1998-01-29 2002-04-22 ヤマハ株式会社 演奏装置、サーバ装置、演奏方法および演奏制御方法
US6348648B1 (en) * 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
JP4117755B2 (ja) * 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
US6198034B1 (en) * 1999-12-08 2001-03-06 Ronald O. Beach Electronic tone generation system and method
JP3678135B2 (ja) * 1999-12-24 2005-08-03 ヤマハ株式会社 演奏評価装置および演奏評価システム
JP3758450B2 (ja) * 2000-01-10 2006-03-22 ヤマハ株式会社 曲データ作成のためのサーバ装置、クライアント装置及び記録媒体
US6417435B2 (en) * 2000-02-28 2002-07-09 Constantin B. Chantzis Audio-acoustic proficiency testing device
US6751439B2 (en) * 2000-05-23 2004-06-15 Great West Music (1987) Ltd. Method and system for teaching music
JP4399958B2 (ja) 2000-05-25 2010-01-20 ヤマハ株式会社 演奏支援装置および演奏支援方法
WO2001093261A1 (en) 2000-06-01 2001-12-06 Hanseulsoft Co., Ltd. Apparatus and method for providing song accompanying/music playing service using wireless terminal
IL137234A0 (en) * 2000-07-10 2001-07-24 Shahal Elihai Method and system for learning to play a musical instrument
JP3826697B2 (ja) 2000-09-19 2006-09-27 ヤマハ株式会社 演奏表示装置および演奏表示方法
US6660922B1 (en) * 2001-02-15 2003-12-09 Steve Roeder System and method for creating, revising and providing a music lesson over a communications network
US20020165921A1 (en) * 2001-05-02 2002-11-07 Jerzy Sapieyevski Method of multiple computers synchronization and control for guiding spatially dispersed live music/multimedia performances and guiding simultaneous multi-content presentations and system therefor
US6696631B2 (en) * 2001-05-04 2004-02-24 Realtime Music Solutions, Llc Music performance system
JP3726712B2 (ja) * 2001-06-13 2005-12-14 ヤマハ株式会社 演奏設定情報の授受が可能な電子音楽装置及びサーバ装置、並びに、演奏設定情報授受方法及びプログラム
US6483019B1 (en) * 2001-07-30 2002-11-19 Freehand Systems, Inc. Music annotation system for performance and composition of musical scores
JP2003256552A (ja) * 2002-03-05 2003-09-12 Yamaha Corp 演奏者情報提供方法、サーバ、プログラムおよび記録媒体
JP3852348B2 (ja) * 2002-03-06 2006-11-29 ヤマハ株式会社 再生及び送信切替装置及びプログラム
JP3613254B2 (ja) * 2002-03-20 2005-01-26 ヤマハ株式会社 楽曲データの圧縮方法
JP3903821B2 (ja) * 2002-03-25 2007-04-11 ヤマハ株式会社 演奏音提供システム
US6768046B2 (en) * 2002-04-09 2004-07-27 International Business Machines Corporation Method of generating a link between a note of a digital score and a realization of the score
US20040176025A1 (en) * 2003-02-07 2004-09-09 Nokia Corporation Playing music with mobile phones
JP3821103B2 (ja) * 2003-02-24 2006-09-13 ヤマハ株式会社 情報表示方法および情報表示装置、並びに、情報表示プログラムを記録した記録媒体
US6995311B2 (en) * 2003-03-31 2006-02-07 Stevenson Alexander J Automatic pitch processing for electric stringed instruments
JP3894156B2 (ja) * 2003-05-06 2007-03-14 ヤマハ株式会社 楽音信号形成装置
US20040237756A1 (en) * 2003-05-28 2004-12-02 Forbes Angus G. Computer-aided music education
CN1833265B (zh) * 2003-06-25 2010-10-13 雅马哈株式会社 教授音乐的方法
JP3922224B2 (ja) * 2003-07-23 2007-05-30 ヤマハ株式会社 自動演奏装置及びプログラム
JP2005062697A (ja) 2003-08-19 2005-03-10 Kawai Musical Instr Mfg Co Ltd テンポ表示装置
JP4363204B2 (ja) * 2004-02-04 2009-11-11 ヤマハ株式会社 通信端末
JP4368222B2 (ja) 2004-03-03 2009-11-18 株式会社国際電気通信基礎技術研究所 合奏支援システム
JP4165421B2 (ja) * 2004-03-15 2008-10-15 ヤマハ株式会社 楽曲演奏システム及び端末装置
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
US7385125B2 (en) * 2005-03-23 2008-06-10 Marvin Motsenbocker Electric string instruments and string instrument systems
JP4797523B2 (ja) 2005-09-12 2011-10-19 ヤマハ株式会社 合奏システム
JP4513713B2 (ja) * 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US20080134861A1 (en) * 2006-09-29 2008-06-12 Pearson Bruce T Student Musical Instrument Compatibility Test

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276141A (ja) 1999-03-25 2000-10-06 Yamaha Corp 電子楽器および電子楽器の制御装置
JP2002132137A (ja) * 2000-10-26 2002-05-09 Yamaha Corp 演奏ガイド装置及び電子楽器
JP2003084760A (ja) * 2001-09-11 2003-03-19 Yamaha Music Foundation Midi信号中継装置及び楽音システム
JP2003288077A (ja) * 2002-03-27 2003-10-10 Yamaha Corp 曲データ出力装置及びプログラム
JP2004093613A (ja) 2002-08-29 2004-03-25 Yamaha Corp 演奏処理装置、データ管理装置、評価用装置、データ管理システム、データ管理方法およびプログラム
JP2004184757A (ja) * 2002-12-04 2004-07-02 Casio Comput Co Ltd 学習結果表示装置、及びプログラム
JP2005165078A (ja) * 2003-12-04 2005-06-23 Yamaha Corp 音楽セッション支援方法、音楽セッション用楽器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1926080A4 *

Also Published As

Publication number Publication date
US20090044685A1 (en) 2009-02-19
EP1926080A1 (en) 2008-05-28
CN101263551A (zh) 2008-09-10
JP2007078751A (ja) 2007-03-29
KR20080051169A (ko) 2008-06-10
JP4797523B2 (ja) 2011-10-19
EP1926080A4 (en) 2010-07-28
US7939740B2 (en) 2011-05-10

Similar Documents

Publication Publication Date Title
JP4752425B2 (ja) 合奏システム
JP4797523B2 (ja) 合奏システム
JP5169328B2 (ja) 演奏処理装置及び演奏処理プログラム
WO2008004690A1 (fr) Dispositif portatif de production d'accords, programme d'ordinateur et support d'enregistrement
JP4692189B2 (ja) 合奏システム
US7838754B2 (en) Performance system, controller used therefor, and program
JP4131279B2 (ja) 合奏パラメータ表示装置
CN110706680A (zh) 一种用于双排键演奏的编曲方法
Weinberg Interconnected musical networks: bringing expression and thoughtfulness to collaborative group playing
JP3902736B2 (ja) カラオケ装置
JP5842383B2 (ja) カラオケシステム及びカラオケ装置
JP4259532B2 (ja) 演奏制御装置、およびプログラム
JP2005345556A (ja) グループ対抗歌唱力ランキング機能を有したカラオケシステム
JP3902735B2 (ja) カラオケ装置
JPH10282978A (ja) カラオケ装置およびカラオケ装置の配信装置
KR101842282B1 (ko) 기타 연주시스템과 이를 위한 연주용 기타 및 기타 연주정보 표시방법
JP5011920B2 (ja) 合奏システム
JP2008233614A (ja) 小節番号表示装置、小節番号表示方法及び小節番号表示プログラム
Evans et al. Evangistrum: a cooperative audiovisual instrument informed by resonance theory
JP3404594B2 (ja) 記録媒体及び音楽ゲーム装置
JP2022171195A (ja) カラオケ装置
JPH09212164A (ja) 鍵盤演奏装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680033496.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006768379

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12066519

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020087008627

Country of ref document: KR