WO2021044563A1 - 自動演奏装置および自動演奏プログラム - Google Patents

自動演奏装置および自動演奏プログラム Download PDF

Info

Publication number
WO2021044563A1
WO2021044563A1 PCT/JP2019/034874 JP2019034874W WO2021044563A1 WO 2021044563 A1 WO2021044563 A1 WO 2021044563A1 JP 2019034874 W JP2019034874 W JP 2019034874W WO 2021044563 A1 WO2021044563 A1 WO 2021044563A1
Authority
WO
WIPO (PCT)
Prior art keywords
performance
likelihood
pattern
input
transition
Prior art date
Application number
PCT/JP2019/034874
Other languages
English (en)
French (fr)
Inventor
晃弘 永田
萩野 孝明
Original Assignee
ローランド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローランド株式会社 filed Critical ローランド株式会社
Priority to EP19943869.8A priority Critical patent/EP4027329B1/en
Priority to US17/637,077 priority patent/US20220301527A1/en
Priority to PCT/JP2019/034874 priority patent/WO2021044563A1/ja
Priority to JP2021543877A priority patent/JP7190056B2/ja
Publication of WO2021044563A1 publication Critical patent/WO2021044563A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/325Musical pitch modification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/361Selection among a set of pre-established rhythm patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Definitions

  • the present invention relates to an automatic performance device and an automatic performance program.
  • Patent Document 1 discloses an automatic accompaniment data search device.
  • the trigger data indicating that the key has been pressed, that is, the performance operation has been performed
  • the velocity data indicating the strength of the key press, that is, the strength of the performance operation. Is input to the information processing device 20 as an input rhythm pattern in units of one bar.
  • the information processing device 20 has a database including a plurality of automatic accompaniment data.
  • the automatic accompaniment data is composed of a plurality of parts, each of which has a unique rhythm pattern.
  • the information processing device 20 searches for automatic accompaniment data having the same or similar rhythm pattern as the input rhythm pattern, and displays a list of the names and the like of the searched automatic accompaniment data. To do.
  • the information processing device 20 outputs a sound based on the automatic accompaniment data selected by the user from the list display.
  • an output pattern is estimated from a plurality of output patterns that are a combination of accompaniment sounds and effects based on the performance information played (input) by the performer, and the corresponding accompaniment sounds and effects are estimated. Is output. That is, according to the free performance of the performer, the accompaniment sound and the effect suitable for the performance can be automatically played.
  • the automatic performance is changed based on the performance (input) by the performer. Therefore, when the solo performance is performed, the chord change is not desired, or the rhythm of the drum performance is constant. There was a problem that these may change even when it was desired to do so.
  • the present invention has been made to solve the above problems, and provides an automatic performance device and an automatic performance program capable of performing an automatic performance suitable for the performance of the performer according to the will of the performer.
  • the purpose is.
  • the automatic performance device of the present invention includes a storage means for storing a plurality of performance patterns, a performance means for performing a performance based on the performance patterns stored in the storage means, and a performer's performance operation.
  • An input means for inputting performance information from an input device that accepts the music, a setting means for setting a mode for switching the performance by the performance means, and a mode for switching the performance by the performance means are set by the setting means.
  • a selection means for selecting the most probable performance pattern from a plurality of performance patterns stored in the storage means based on the performance information input to the input means, and a performance by the performance means. It is characterized by including a switching means for switching at least one of the musical expressions of the performance pattern being performed to the musical expression of the performance pattern selected by the selection means.
  • the keyboard and keyboard of an external device configured separately from the automatic performance device can be exemplified.
  • the automatic performance program of the present invention causes a computer provided with a storage unit to perform automatic performance, causes the storage unit to function as a storage means for storing a plurality of performance patterns, and is stored in the storage means.
  • a performance step in which a performance is performed based on a performance pattern an input step in which performance information is input from an input device that accepts a performer's performance operation, and a setting step in which a mode for switching performance according to the performance step is set.
  • the mode for switching the performance by the performance step is set by the setting step, the most probable of the plurality of performance patterns stored in the storage means based on the performance information input by the input step.
  • the "input device” for example, a keyboard or keyboard connected by wire or wirelessly to a computer equipped with an automatic performance program can be exemplified.
  • the synthesizer which is one Embodiment. It is a block diagram which shows the electrical structure of a synthesizer.
  • (A) is a schematic diagram for explaining the beat position of the accompaniment sound
  • (b) is a table showing an example of an input pattern. It is a table for explaining the state of an input pattern.
  • (A) is a diagram schematically showing an input pattern table
  • (b) is a diagram schematically showing an output pattern table.
  • A) is a diagram for explaining a transition route
  • (b) is a diagram schematically showing a likelihood table between transition routes.
  • (A) is a diagram schematically showing a user evaluation likelihood table
  • (b) is a diagram schematically showing a pitch likelihood table
  • (c) is an accompaniment synchronization likelihood table.
  • (A) is a diagram schematically showing an IOI likelihood table
  • (b) is a diagram schematically showing a likelihood table
  • (c) is a diagram schematically showing a previous likelihood table. It is a figure shown.
  • It is a flowchart of a main process. It is a flowchart of user evaluation reflection processing. It is a flowchart of a key input process. It is a flowchart of the input pattern search process. It is a flowchart of the likelihood calculation process. It is a flowchart of the state-to-state likelihood integration process. It is a flowchart of the likelihood integration process between transitions. It is a flowchart of a user evaluation likelihood integration process.
  • FIG. 1 is an external view of a synthesizer 1 according to an embodiment.
  • the synthesizer 1 is an electronic musical instrument (automatic performance device) that mixes and outputs (sounds) musical sounds produced by a performer (user) and predetermined accompaniment sounds.
  • the synthesizer 1 can apply effects such as reverb, chorus, and delay by performing arithmetic processing on waveform data in which musical sounds played by a performer and accompaniment sounds are mixed.
  • the synthesizer 1 is mainly provided with a keyboard 2, a user evaluation button 3, and a setting key 50.
  • a plurality of keys 2a are arranged on the keyboard 2, and are input devices for acquiring performance information by the performer's performance.
  • MIDI Musical Instrument Digital Interface
  • standard performance information corresponding to the key pressing / releasing operation of the key 2a by the performer is output to the CPU 10 (see FIG. 2).
  • the user evaluation button 3 is a button that outputs the performer's evaluation (high evaluation or low evaluation) to the CPU 10 for the accompaniment sounds and effects output from the synthesizer 1, and outputs information indicating the performer's high evaluation to the CPU 10. It is composed of a high evaluation button 3a for outputting a high evaluation button 3a and a low evaluation button 3b for outputting information indicating a performer's low evaluation to the CPU 10. If the accompaniment sound or effect output from the synthesizer 1 gives the performer a good impression, the high evaluation button 3a is pressed, while the output accompaniment sound or effect gives a bad or bad impression. If so, the low rating button 3b is pressed. Then, the information indicating the high evaluation or the low evaluation corresponding to the pressed high evaluation button 3a or the low evaluation button 3b is output to the CPU 10.
  • an output pattern is estimated based on the performance information from the key 2a by the performer from a plurality of output patterns that are a combination of accompaniment sounds and effects, and is applicable. Accompaniment sounds and effects are output. As a result, it is possible to output accompaniment sounds and effects suitable for the performance according to the free performance of the performer. At that time, the output pattern of the accompaniment sound or effect for which the high evaluation button 3a is pressed many times by the performer is selected with higher priority. As a result, it is possible to output accompaniment sounds and effects suitable for the performance according to the free performance of the performer.
  • the setting key 50 is an operator for inputting various settings to the synthesizer 1.
  • the setting key 50 sets on / off of three modes related to the accompaniment sound. Specifically, turn on / off the accompaniment change setting that switches the accompaniment sound according to the input to the keyboard 2, and change the rhythm to set whether to consider the beat position and keystroke interval (input interval) when switching the accompaniment sound.
  • the pitch change setting for setting whether or not to consider the pitch input from the keyboard 2 is set on / off.
  • FIG. 2 is a block diagram showing an electrical configuration of the synthesizer 1.
  • the synthesizer 1 has a CPU 10, a flash ROM 11, a RAM 12, a keyboard 2, a user evaluation button 3, a sound source 13, a Digital Signal Processor 14 (hereinafter referred to as “DSP 14”), and a setting key 50, respectively. It is connected via the bus line 15.
  • a digital-to-analog converter (DAC) 16 is connected to the DSP 14, an amplifier 17 is connected to the DAC 16, and a speaker 18 is connected to the amplifier 17.
  • DAC digital-to-analog converter
  • the CPU 10 is an arithmetic unit that controls each unit connected by the bus line 15.
  • the flash ROM 11 is a rewritable non-volatile memory, and is provided with a control program 11a, an input pattern table 11b, an output pattern table 11c, a transition route likelihood table 11d, and a user evaluation likelihood table 11e.
  • the waveform data 23a stores waveform data corresponding to each key constituting the keyboard 2.
  • the input pattern table 11b is a data table in which performance information and input patterns matching the performance information are stored.
  • the beat position, the state, and the pattern name of the accompaniment sound in the synthesizer 1 of the present embodiment will be described with reference to FIG.
  • FIG. 3A is a schematic diagram for explaining the beat position of the accompaniment sound.
  • the synthesizer 1 of the present embodiment stores a plurality of output patterns that are a combination of accompaniment sounds and effects, and an input pattern consisting of a series of beat positions and pitches corresponding to the output patterns is set for each output pattern.
  • a "probable" input pattern is estimated from the performance information from the key 2a by the performer, and the input pattern corresponds to the input pattern.
  • the accompaniment sound and effect of the output pattern to be output are output.
  • the combination of the input pattern and the output pattern is referred to as a "pattern".
  • the playing time of the accompaniment sound in each output pattern is set to the length of two measures in a four-quarter time signature.
  • the beat positions B1 to B32 in which the length of the two measures is equally divided by the length of the sixteenth note (that is, divided into 32 equal parts), are regarded as one unit of the temporal position.
  • the time ⁇ T in FIG. 3A represents the length of a sixteenth note.
  • An input pattern is obtained by arranging the accompaniment sounds of the respective output patterns and the pitches corresponding to the effects with respect to the beat positions B1 to B32. An example of such an input pattern is shown in FIG. 3 (b).
  • FIG. 3B is a table showing an example of an input pattern. As shown in FIG. 3B, pitches (do, re, mi, ...) With respect to beat positions B1 to B32 are set for each input pattern.
  • the patterns P1, P2, ... Are identification names for associating the input pattern with the output pattern described later.
  • the input pattern not only a single pitch is set for a certain beat position B1 to B32, but also a combination of two or more pitches can be specified.
  • the corresponding pitch names are connected by "&" to the beat positions B1 to B32.
  • the pitch "do & mi" is specified, which specifies that "do" and "mi" are input at the same time. There is.
  • any pitch is input to the beat positions B1 to B32.
  • wildcard pitch when it is specified that the wildcard pitch is input, " ⁇ " is specified for the beat positions B1 to B32. For example, at the beat position B7 of the input pattern P2 in FIG. 3B, since the input of the wildcard pitch is specified, “ ⁇ ” is specified.
  • the pitch is defined for the beat positions B1 to B32 where the input of the performance information is specified, while the pitch is defined for the beat positions B1 to B32 where the input of the performance information is not specified. Not done.
  • FIG. 4 is a table for explaining the state of the input pattern.
  • the states J1, J2, ... are defined for the beat positions B1 to B32 in which the pitch is specified, in order from the beat position B1 of the input pattern P1.
  • the beat position B1 of the input pattern P1 is defined as the state J1
  • the beat position B5 of the input pattern P1 is defined as the state J2, ...
  • the beat position B32 of the input pattern P1 is defined as the state J8, and the beat of the input pattern P2.
  • Position B1 is defined as state J9 following state J8.
  • the states J1, J2, ... Are abbreviated as "state Jn" unless otherwise specified.
  • the pattern name of the corresponding input pattern, the beat positions B1 to B32, and the pitch are stored for each state Jn.
  • the input pattern table 11b will be described with reference to FIG. 5A.
  • FIG. 5A is a diagram schematically showing the input pattern table 11b.
  • the input pattern table 11b shows the pattern name of the corresponding input pattern, beat positions B1 to B32, and pitch for each state Jn for the music genre (rock, pop, jazz, etc.) that can be specified by the synthesizer 1.
  • the input pattern table 11b stores the input pattern for each music genre, and the input pattern corresponding to the selected music genre is referred to from the input pattern table 11b.
  • the input pattern corresponding to the music genre "rock” is set as the input pattern table 11br
  • the input pattern corresponding to the music genre "pop” is set as the input pattern table 11bp
  • the input pattern corresponding to the music genre "jazz” is used.
  • the input pattern tables 11bp, 11br, 11bj ... In the input pattern table 11b will be referred to as "input pattern table 11bx" unless otherwise specified.
  • the beat position and pitch of the performance information and the beat position and pitch of the input pattern table 11bx corresponding to the selected music genre indicate the "probable" state Jn. Is estimated, an input pattern is acquired from the state Jn, and an accompaniment sound and an effect of an output pattern corresponding to the pattern name of the input pattern are output.
  • the output pattern table 11c is a data table in which an output pattern, which is a combination of accompaniment sounds and effects for each pattern, is stored.
  • the output pattern table 11c will be described with reference to FIG. 5 (b).
  • FIG. 5B is a diagram schematically showing the output pattern table 11c. Similar to the input pattern table 11b, the output pattern table 11c also stores the output pattern for each music genre. Specifically, among the output pattern table 11c, the output pattern corresponding to the music genre "rock” is referred to as the output pattern table 11cr, the output pattern corresponding to the music genre "pop” is referred to as the output pattern table 11cp, and the music genre "jazz". The corresponding output pattern is set to the output pattern table 11cj, and the output patterns are also stored for other music genres.
  • the output pattern tables 11cp, 11cr, 11cj ... Of the output pattern table 11c will be referred to as "output pattern table 11cx" unless otherwise specified.
  • the output pattern table 11cx for each output pattern, a drum pattern in which the rhythm pattern of the drum as an accompaniment sound is stored, a bass pattern in which the rhythm pattern of the bass is stored, and a chord progression in which the progress of the chord (chord) is stored.
  • the arpeggio progress that memorizes the progress of the arpeggio, the effect that memorizes the mode of the effect, and the volume / velocity that memorizes the volume / velocity value of the chord based on the accompaniment sound and the performance information from the key 2a by the performer.
  • a tone color in which the tone color of the musical sound based on the performance information from the key 2a by the performer is stored is provided.
  • drum patterns DR1, DR2, ... Which are different drum performance information are set in advance, and drum patterns DR1, DR2, ... Are set for each output pattern.
  • bass patterns Ba1, Ba2, ... Which are different drum performance information are set in advance, and the bass patterns Ba1, Ba2, ... Are set for each output pattern.
  • chord progressions Ch1, Ch2 ... which are performance information based on different chord progressions are set in advance, and chord progressions Ch1, Ch2 ... Are set for each output pattern.
  • arpeggio progression the arpeggio progressions AR1, AR2 ... Which are performance information by different arpeggio progressions are set in advance, and the arpeggio progressions AR1, AR2 ... Are set for each output pattern.
  • Drum patterns DR1, DR2, ..., Bass patterns Ba1, Ba2, ..., Chord progression Ch1, Ch2 ..., and arpeggio progression AR1, AR2 ... Stored in the output pattern table 11cx as accompaniment sounds.
  • the playing time is the length of two measures as described above. Since the length of these two measures is also a general unit in musical expression, even if the same pattern is continued and the accompaniment sound is repeatedly output, the accompaniment sound can be made comfortable for the performer and the audience. it can.
  • a musical tone based on the performance information from the key 2a is output based on the tones Ti1, Ti2, ... Set in the selected output pattern, and the effects Ef1, Ef2 set in the selected output pattern are output.
  • ... And volume / velocity Ve1, Ve2, ... Are applied to musical tones and accompaniment tones based on the performance information from the key 2a.
  • the likelihood table 11d between transition routes shows the transition route Rm between states Jn, the beat distance which is the distance between beat positions B1 to B32 of the transition route Rm, the pattern transition likelihood with respect to the transition route Rm, and the likelihood of failure. Is a data table that stores.
  • the transition route Rm and the inter-transition-route likelihood table 11d will be described with reference to FIG.
  • FIG. 6 (a) is a diagram for explaining the transition route Rm
  • FIG. 6 (b) is a diagram schematically showing the inter-transition route likelihood table 11d.
  • the horizontal axis of FIG. 6A indicates beat positions B1 to B32.
  • the beat position progresses from the beat position B1 to the beat position B32 with the passage of time, and the state Jn in each pattern also changes.
  • the route between the assumed states Jn is preset in the transition between the states Jn.
  • the route for the transition between the preset states Jn is referred to as "transition route R1, R2, R3, ", And when these are not particularly distinguished, it is referred to as "transition route Rm".
  • FIG. 6A shows a transition route for the state J3.
  • Two types of transition routes to the state J3 are set: a case of transitioning from the state Jn having the same pattern as the state J3 (that is, pattern P1) and a case of transitioning from the state Jn having a pattern different from the state J3. Will be done.
  • transition route R3 that transitions from the state J2 that is the immediately preceding state to the state J3 and a transition route from the state J1 that is the state two before the state J3.
  • the transition route R2 is set. That is, in the present embodiment, as the transition route to the state Jn between the same patterns, there are many transition routes that transition from the immediately preceding state Jn and "sound skipping" transition routes that transition from the two previous states. Both transition routes of 2 are set.
  • transition routes that transition from the state Jn of a pattern different from the state J3 a transition route R8 that transitions from the state J11 of the pattern P2 to the state J3 and a transition route R15 that transitions from the state J21 of the pattern P3 to the state J3.
  • the transition route R66 that transitions from the state J74 of the pattern P10 to the state J3, and the like that is, as a transition route to the state Jn between different patterns, a transition route is set in which the state Jn of another pattern, which is the transition source, is immediately before the beat position of the state Jn of the transition destination.
  • a plurality of transition routes Rm to the state J3 are set. Further, similarly to the state J3, one or a plurality of transition routes Rm are set for each state Jn.
  • the "probable" state Jn is estimated based on the performance information from the key 2a, and the accompaniment sound or effect by the output pattern corresponding to the input pattern corresponding to the state Jn is output.
  • the state Jn is estimated based on the likelihood, which is a numerical value representing the "likelihood" between the performance information from the key 2a and the state Jn, which is set for each state Jn.
  • the likelihood for the state Jn is calculated by integrating the likelihood based on the state Jn itself, the likelihood based on the transition route Rm, or the likelihood based on the pattern.
  • the pattern transition likelihood and the missed likelihood stored in the transition route likelihood table 11dx are the likelihoods based on the transition route Rm.
  • the pattern transition likelihood is a likelihood indicating whether or not the transition source state Jn and the transition destination state Jn with respect to the transition route Rm have the same pattern.
  • the pattern transition likelihood is set to "1"
  • the states of the transition source and the transition destination of the transition route Rm are set. If Jn is another pattern, the pattern transition likelihood is set to "0.5".
  • the pattern transition likelihood of the transition route R3 is “1”.
  • the transition source is the state J11 of the pattern P2 and the transition destination is the state J3 of the pattern P1
  • the transition route R8 is a transition route between different patterns. Therefore, "0.5" is set for the pattern transition likelihood of the transition route R8.
  • the pattern transition likelihood of the transition route Rm for the same pattern is set to a larger value than the pattern transition likelihood of the transition route Rm for another pattern. This is because, in an actual performance, the probability of staying in the same pattern is higher than the probability of transitioning to another pattern. Therefore, the transition destination state Jn in the transition route Rm to the same pattern is estimated with priority over the transition destination state Jn in the transition route Rm to another pattern, so that the transition to another pattern is suppressed. Therefore, it is possible to prevent the output pattern from being changed frequently. As a result, it is possible to prevent the accompaniment sound and effect from being changed frequently, so that the accompaniment sound and effect can be made with less discomfort to the performer and the audience.
  • the failure likelihood stored in the transition route-to-route likelihood table 11dx is such that the transition source state Jn and the transition destination state Jn with respect to the transition route Rm have the same pattern, and the transition source state Jn is the same.
  • Likelihood indicating whether or not the state Jn is two states before the transition destination state Jn that is, whether the transition source state Jn with respect to the transition route Rm and the transition destination state Jn are transition routes due to skipping. Degree.
  • "0.45" is set as the likelihood of failing to hit, and the transition route Rm due to skipping is set. If not, "1" is set for the likelihood of failure.
  • the transition route R1 is a transition route between adjacent states J1 and J2 in the same pattern P1, and is not a transition route due to skipping. Is set.
  • the transition route R2 since the transition destination state J3 is two states ahead of the transition source state J1, the likelihood of failure is set to "0.45".
  • a transition route Rm due to skipping is also set, in which the state Jn two before the transition destination state Jn is set as the transition source state Jn.
  • the probability that a transition due to skipping will occur is lower than the probability that a normal transition will occur. Therefore, by setting a value smaller than the likelihood of failure of the transition route Rm due to skipping, which is smaller than the likelihood of failure of the normal transition route Rm that is not skipping, the probability of failure due to skipping is the same as in actual performance.
  • the state Jn of the transition destination of the normal transition route Rm can be estimated with priority over the state Jn of the transition destination of the transition route Rm.
  • the inter-transition likelihood table 11d shows the transition source state Jn of the transition route Rm for each transition route Rm for each music genre designated in the synthesizer 1.
  • the transition destination state Jn, the pattern transition likelihood, and the failure likelihood are stored in association with each other.
  • the transition route-to-route likelihood table 11d also stores the transition-route-to-transition likelihood table for each music genre, and the transition-route-to-transition likelihood table corresponding to the music genre "rock" is the transition-route-to-transition likelihood table 11dr.
  • the inter-transition likelihood table corresponding to the music genre "pop” is referred to as the inter-transition likelihood table 11 pd
  • the inter-transition likelihood table corresponding to the music genre "jazz” is referred to as the inter-transition route likelihood table 11 dj.
  • the likelihood table between transition routes is also defined for other music genres.
  • the inter-route-likelihood tables 11dp, 11dr, 11dj, ... In the inter-transition-route-likelihood table 11d will be referred to as "transition-route-likelihood table 11dx" unless otherwise specified.
  • the user evaluation likelihood table 11e is a data table that stores the evaluation results for the output pattern during performance by the performer.
  • the user evaluation likelihood is the likelihood set for each pattern based on the input from the user evaluation button 3 described above in FIG. Specifically, when the performer presses the high evaluation button 3a (FIG. 1) of the user evaluation button 3 with respect to the accompaniment sound or effect being output, the pattern corresponding to the accompaniment sound or effect being output. "0.1" is added to the user evaluation likelihood of. On the other hand, when the performer presses the low evaluation button 3b (FIG. 1) of the user evaluation button 3 with respect to the accompaniment sound or effect being output, the user with the pattern corresponding to the accompaniment sound or effect being output. "0.1" is subtracted from the evaluation likelihood.
  • a higher user evaluation likelihood is set for the accompaniment sound or effect pattern that has received a high evaluation, and a smaller user evaluation likelihood is set for the accompaniment sound or effect pattern that has received a low evaluation. Is set. Then, the user evaluation likelihood is applied to the likelihood of the state Jn corresponding to the pattern, and the state Jn for the performance information from the key 2a is estimated based on the user evaluation likelihood for each state Jn. Therefore, since the accompaniment sounds and effects based on the patterns that have been highly evaluated by the performer are preferentially output, the accompaniment sounds and effects based on the performer's preference for the performance can be output with higher probability.
  • the user evaluation likelihood table 11e in which the user evaluation likelihood is stored will be described with reference to FIG. 7A.
  • FIG. 7A is a diagram schematically showing the user evaluation likelihood table 11e.
  • the user evaluation likelihood table 11e is a data table in which the user evaluation likelihood based on the player's evaluation is stored for each pattern for a music genre (rock, pop, jazz, etc.).
  • the user evaluation likelihood table corresponding to the music genre "rock” is defined as the user evaluation likelihood table 11er
  • the user evaluation likelihood table corresponding to the music genre "pop” is used.
  • the user evaluation likelihood table is set to 11 ep
  • the user evaluation likelihood table corresponding to the music genre "jazz" is set to the user evaluation likelihood table 11ej
  • the user evaluation likelihood table is also defined for other music genres.
  • the user evaluation likelihood tables 11ep, 11er, 11ej ...
  • the user evaluation likelihood table 11ex will be referred to as "user evaluation likelihood table 11ex" unless otherwise specified.
  • the RAM 12 is a memory in which the CPU 10 rewritably stores various work data, flags, and the like when executing a program such as the control program 11a, and is estimated to be a selected genre memory 12a in which the music genre selected by the performer is stored.
  • the key 2a is pressed this time from the timing when the selected pattern memory 12b in which the pattern is stored, the transition route memory 12c in which the estimated transition route Rm is stored, the tempo memory 12d, and the timing when the key 2a was pressed last time.
  • the IOI memory 12e which stores the time until the timing (that is, the keystroke interval), the pitch likelihood table 12f, the accompaniment synchronization likelihood table 12g, the IOI likelihood table 12h, the likelihood table 12i, and the previous time. It has a likelihood table 12j.
  • the tempo memory 12d is a memory in which the real time per beat of the accompaniment sound is stored.
  • the real time per beat of the accompaniment sound is referred to as "tempo"
  • the accompaniment sound is played based on the tempo.
  • the pitch likelihood table 12f is a data table in which the pitch likelihood, which is the likelihood representing the relationship between the pitch of the performance information from the key 2a and the pitch of the state Jn, is stored.
  • the pitch likelihood when the pitch of the performance information from the key 2a and the pitch of the state Jn in the input pattern table 11bx (FIG. 5A) are exactly the same, "1". "Is set,” 0.54 “is set when there is a partial match, and” 0.4 “is set when there is a mismatch.
  • the pitch likelihood is set for all states Jn.
  • FIG. 7 (b) illustrates a case where "do" is input as the pitch of the performance information from the key 2a in the input pattern table 11br of the music genre "rock” of FIG. 5 (a). Since the pitch of the state J1 and the state J74 in the input pattern table 11br is "do", "1" is set for the pitch likelihood of the state J1 and the state J74 in the pitch likelihood table 12f. Further, since the pitch of the state J11 in the input pattern table 11br is a wildcard pitch, it is considered that the pitches match exactly no matter which pitch is input. Therefore, "1" is also set for the pitch likelihood with the state J11 in the pitch likelihood table 12f.
  • the state J2 in the pitch likelihood table 12f Since the pitch of the state J2 in the input pattern table 11br is "re" and does not match the pitch "do" of the performance information from the key 2a, the state J2 in the pitch likelihood table 12f is "0.4". "Is set. Further, since the pitch of the state J21 in the input pattern table 11br is "do & mi" and partially matches the pitch "do" of the performance information from the key 2a, the state J21 in the pitch likelihood table 12f Is set to "0.54". Based on the pitch likelihood table 12f set in this way, the state Jn of the pitch closest to the pitch of the performance information from the key 2a can be estimated.
  • the accompaniment synchronization likelihood table 12g stores the accompaniment synchronization likelihood, which is the likelihood representing the relationship between the timing in the two measures in which the performance information from the key 2a is input and the beat positions B1 to B32 in the state Jn. It is a data table.
  • the accompaniment synchronization likelihood table 12g will be described with reference to FIG. 7 (c).
  • FIG. 7C is a diagram schematically showing the accompaniment synchronization likelihood table 12g.
  • the accompaniment synchronization likelihood table 12g stores the accompaniment synchronization likelihood for each state Jn.
  • the accompaniment synchronization likelihood will be described later from the difference between the timing between the two measures in which the performance information from the key 2a is input and the beat positions B1 to B32 of the state Jn stored in the input pattern table 11bx. It is calculated based on the Gaussian distribution of Equation 2 of.
  • the accompaniment synchronization likelihood of a large value is set in the states Jn of the beat positions B1 to B32 where the difference from the timing at which the performance information from the key 2a is input is small, while the accompaniment synchronization likelihood from the key 2a is set.
  • a small value of accompaniment synchronization likelihood is set in the states Jn of the beat positions B1 to B32, which have a large difference from the timing at which the performance information is input.
  • the IOI likelihood table 12h is a data table in which the IOI likelihood is stored, which represents the relationship between the keystroke interval stored in the IOI memory 12e and the beat distance of the transition route Rm stored in the transition route likelihood table 11dx. Is.
  • the IOI likelihood table 12h will be described with reference to FIG. 8A.
  • FIG. 8A is a diagram schematically showing the IOI likelihood table 12h.
  • the IOI likelihood table 12h stores the IOI likelihood for each transition route Rm.
  • the IOI likelihood is calculated by the mathematical formula 1 described later from the keystroke interval stored in the IOI memory 12e and the beat distance of the transition route Rm stored in the transition route likelihood table 11dx. ..
  • a large value of IOI likelihood is set for the transition route Rm having a beat distance with a small difference from the keystroke interval stored in the IOI memory 12e, while the keystroke interval stored in the IOI memory 12e.
  • a small value of IOI likelihood is set for the transition route Rm having a beat distance with a large difference from.
  • the likelihood table 12i stores the likelihood as a result of integrating the pattern transition likelihood, the missed likelihood, the user evaluation likelihood, the pitch likelihood, the accompaniment synchronization likelihood, and the IOI likelihood described above for each state Jn.
  • the previous likelihood table 12j is a data table that stores the previous value of the likelihood for each stored state Jn of the likelihood table 12i. The likelihood table 12i and the previous likelihood table 12j will be described with reference to FIGS. 8 (b) and 8 (c).
  • FIG. 8B is a diagram schematically showing the likelihood table 12i
  • FIG. 8C is a diagram schematically showing the previous likelihood table 12j.
  • the likelihood table 12i shows the pattern transition likelihood, the missed likelihood, the user evaluation likelihood, the pitch likelihood, the accompaniment synchronization likelihood, and the IOI likelihood for each state Jn, respectively. The result of integrating the above is stored.
  • the pattern transition likelihood, the missed likelihood, and the IOI likelihood are integrated with each likelihood of the transition route Rm corresponding to the transition destination state Jn, and the user evaluation likelihood is the corresponding state.
  • the user evaluation likelihood of the pattern for Jn is integrated.
  • the previous likelihood table 12j shown in FIG. 8C stores the likelihood of each state Jn integrated in the previous process and stored in the likelihood table 12i.
  • the sound source 13 is a device that outputs waveform data according to the performance information input from the CPU 10.
  • the DSP 14 is an arithmetic unit for arithmetically processing the waveform data input from the sound source 13.
  • the DSP 14 applies the effect of the output pattern specified in the selection pattern memory 12b to the waveform data input from the sound source 13.
  • the DAC 16 is a conversion device that converts the waveform data input from the DSP 14 into analog waveform data.
  • the amplifier 17 is an amplification device that amplifies the analog waveform data output from the DAC 16 with a predetermined gain, and the speaker 18 is an output device that emits (outputs) the analog waveform data amplified by the amplifier 17 as music. Is.
  • FIG. 9 is a flowchart of the main process.
  • the main process is executed when the synthesizer 1 is powered on.
  • the music genre selected by the performer is first saved in the selected genre memory 12a (S1). Specifically, a music genre is selected by an operation on the music genre selection button (not shown) of the synthesizer 1 by the performer, and the type of the music genre is saved in the selection genre memory 12a.
  • the input pattern table 11b For the input pattern table 11b, the output pattern table 11c, the inter-transition likelihood table 11d, or the user evaluation likelihood table 11e stored for each music genre, the music genre stored in the selected genre memory 12a
  • the corresponding input pattern table 11bx, output pattern table 11cx, inter-transition route likelihood table 11dx, or user evaluation likelihood table 11ex is referred to, but in the following, the "music genre stored in the selected genre memory 12a" is referred to. Expressed as "corresponding music genre”.
  • start instruction is output to the CPU 10 when a start button (not shown) provided on the synthesizer 1 is selected. If the performer does not give a start instruction (S2: No), the process of S2 is repeated in order to wait for the start instruction.
  • the accompaniment is started based on the output pattern at the beginning of the corresponding music genre (S3).
  • the first output pattern of the output pattern table 11cx (FIG. 5B) of the corresponding music genre that is, the drum pattern, bass pattern, chord progression, arpeggio progression, effect, volume / volume / of the output pattern of the pattern P1.
  • the performance of the accompaniment sound is started based on the velocity and timbre.
  • the tempo defined in the selected output pattern is stored in the tempo memory 12d, and the accompaniment sound is played based on the tempo.
  • the pattern P1 is set in the selection pattern memory with the start of the accompaniment sound based on the output pattern of the pattern P1 in the music genre by the processing of S3 (S4).
  • FIG. 10 is a flowchart of the user evaluation reflection process.
  • the user evaluation reflection process first confirms whether the user evaluation button 3 (see FIG. 1) has been pressed (S20). When the user evaluation button 3 is pressed (S20: Yes), it is further confirmed whether the high evaluation button 3a is pressed (S21).
  • FIG. 11 is a flowchart of the key input process.
  • the key input process first, the setting state of the setting key 50 (FIGS. 1 and 2) is confirmed, and it is confirmed whether the accompaniment change setting is on (S101).
  • the input pattern search process is executed (S7).
  • the input pattern search process will be described with reference to FIG.
  • FIG. 12 is a flowchart of the input pattern search process.
  • the likelihood calculation process is first performed (S30). The likelihood calculation process will be described with reference to FIG.
  • FIG. 13 is a flowchart of the likelihood calculation process.
  • the setting state of the setting key 50 is confirmed, and it is confirmed whether the rhythm change setting is on (S110).
  • the rhythm change setting is on (S110: Yes)
  • the time when the performance information was input from the previous key 2a and the time when the performance information was input from the key 2a this time are From the difference, the time difference of inputting the performance information from the key 2a, that is, the keystroke interval is calculated and stored in the IOI memory 12e (S50).
  • the IOI likelihood is calculated from the keystroke interval of the IOI memory 12e, the tempo of the tempo memory 12d, and the beat distance of each transition route Rm in the transition route likelihood table 11dx of the corresponding music genre. It is stored in the IOI likelihood table 12h (S51). Specifically, assuming that the keystroke interval of the IOI memory 12e is x, the tempo of the tempo memory 12d is Vm, and the beat distance of a certain transition route Rm stored in the transition route likelihood table 11dx is ⁇ , the IOI likelihood G Is calculated by the Gaussian distribution of Equation 1.
  • is a constant representing the standard deviation in the Gaussian distribution of Equation 1, and a value calculated in advance by an experiment or the like is set.
  • the IOI likelihood G is calculated for all transition routes Rm, and the result is stored in the IOI likelihood table 12h. That is, since the IOI likelihood G follows the Gaussian distribution of Equation 1, a larger value of the IOI likelihood G is set as the transition route Rm has a beat distance with a smaller difference from the keystroke interval of the IOI memory 12e.
  • the accompaniment synchronization likelihood is calculated from the beat position corresponding to the time when the performance information from the key 2a is input and the beat position of the input pattern table 11bx of the corresponding music genre, and the accompaniment synchronization likelihood table 12g.
  • the accompaniment synchronization likelihood B is calculated by the Gaussian distribution of Equation 2.
  • is a constant representing the standard deviation in the Gaussian distribution of Equation 2, and a value calculated in advance by an experiment or the like is set.
  • the accompaniment synchronization likelihood B is calculated for all states Jn, and the result is stored in the accompaniment synchronization likelihood table 12g. That is, since the accompaniment synchronization likelihood B follows the Gaussian distribution of Equation 2, the accompaniment synchronization with a larger value is obtained in the state Jn having a beat position with a small difference from the beat position corresponding to the time when the performance information from the key 2a is input. Likelihood B is set.
  • FIG. 14 is a flowchart of the inter-state likelihood integration process.
  • the likelihood is calculated for each state Jn from each likelihood calculated in the likelihood calculation process of FIG.
  • the counter variable n is set to 1 (S60).
  • "n" of "state Jn” in the inter-state likelihood integration process represents the counter variable n, and for example, the state Jn when the counter variable n is 1 represents the "state J1".
  • the maximum value of the likelihood stored in the previous likelihood table 12j, the pitch likelihood of the state Jn in the pitch likelihood table 12f, and the accompaniment synchronization of the state Jn in the accompaniment synchronization likelihood table 12g is calculated from the likelihood and stored in the likelihood table 12i (S61). Specifically, the maximum value of the likelihood stored in the previous likelihood table 12j is Lp_M, the pitch likelihood of the state Jn in the pitch likelihood table 12f is Pi_n, and the accompaniment of the state Jn in the accompaniment synchronous likelihood table 12g.
  • B_n be the synchronous likelihood
  • the log-likelihood log (L_n) which is the logarithm of the likelihood L_n in the state Jn, is calculated by the Viterbi algorithm of Equation 3.
  • is a penalty constant for the accompaniment synchronization likelihood Bn, that is, a constant considering the case where the state does not transition to Jn, and a value calculated in advance by an experiment or the like is set.
  • the likelihood L_n obtained by removing the logarithm from the log-likelihood log (L_n) calculated by Equation 3 is stored in the memory area corresponding to the state Jn of the likelihood table 12i.
  • the likelihood L_n is calculated by the product of the maximum value LpM of the likelihood stored in the previous likelihood table 12j, the pitch likelihood Pi_n, and the accompaniment synchronization likelihood Bn.
  • each likelihood takes a value of 0 or more and 1 or less, there is a risk of causing underflow when these products are multiplied. Therefore, by taking the logarithms of the likelihoods Lp_M, Pi_n and B_n, the calculation of the product of the likelihoods Lp_M, Pi_n and B_n can be converted into the calculation of the sum of the logarithms of the likelihoods Lp_M, Pi_n and B_n. .. Then, by removing the logarithm of the log-likelihood log (L_n), which is the calculation result, and calculating the likelihood L_n, it is possible to obtain a highly accurate likelihood L_n in which underflow is suppressed.
  • FIG. 15 is a flowchart of the inter-transition likelihood integration process.
  • each likelihood calculated by the likelihood calculation process of FIG. 13 and the pattern transition likelihood and the failure-likelihood of the preset inter-transition likelihood table 11d are used. This is a process of calculating the likelihood of the transition route Rm with respect to the transition destination state Jn.
  • the likelihood of the transition source state Jn of the transition route Rm in the previous likelihood table 12j the IOI likelihood of the transition route Rm in the IOI likelihood table 12h, and the likelihood between the transition routes of the corresponding music genre.
  • the likelihood is calculated based on the accompaniment synchronization likelihood of the state Jn (S71).
  • the previous likelihood of the transition source state Jn of the transition route Rm in the previous likelihood table 12j is Lp_mb
  • the IOI likelihood of the transition route Rm in the IOI likelihood table 12h is I_m
  • the likelihood between the transition routes of the corresponding music genre is Ps_m
  • the likelihood of failure in the transition route likelihood table 11dx of the corresponding music genre is Ms_m
  • the transition destination state Jn of the transition route Rm in the pitch likelihood table 12f is pitched.
  • the likelihood is Pi_mf
  • the accompaniment-likelihood of the transition destination state Jn of the transition route Rm in the accompaniment-synchronous likelihood table 12g is B_mf
  • the log-likelihood log (L) which is the log of the likelihood L, is given by Equation 4. Calculated by the Likelihood algorithm.
  • the logarithmic likelihood log (L) is calculated by the sum of the logarithms of each of the likelihoods Lp_mb, I_m, Ps_m, Ms_m, Pi_mf, and B_mf. This is to suppress underflow. Then, the likelihood L is calculated by removing the logarithm from the logarithm likelihood log (L) calculated by the mathematical formula 4.
  • the likelihood of the transition destination state Jn in the transition route Rm is calculated with reference to the previous likelihood Lp_mb of the transition source state Jn of the transition route Rm in the previous likelihood table 12j. ..
  • the transition of the state Jn depends on the state Jn of the transition source. That is, it is estimated that the state Jn having a large previous likelihood Lp_mb has a high probability of being the transition source state Jn this time, and conversely, the state Jn having a small previous likelihood Lp_mb is the probability of being the transition source state Jn this time. Is estimated to be low. Therefore, by calculating the likelihood of the transition destination state Jn in the transition route Rm based on the previous likelihood Lp_mb, it is possible to obtain a highly accurate likelihood taking into account the transition relationship between the states Jn.
  • the likelihood calculated by the inter-transition likelihood integration process depends on the transition relationship between the states Jn. Therefore, for example, when the performance information of the keyboard 2 is input immediately after the accompaniment performance is started. There may be a case where the transition source state Jn and the transition destination state Jn do not correspond to the input pattern table 11bx of the corresponding music genre, such as when the input interval of the performance information of the keyboard 2 is extremely large. In such a case, the likelihood calculated by the inter-transition likelihood integration process based on the transition relationship between the states Jn becomes a small value.
  • the likelihood is calculated from the pitch likelihood and the accompaniment synchronization likelihood set for each state Jn, so that it does not depend on the transition route Rm. Therefore, in the case where the state Jn of the transition source and the state Jn of the transition destination of the input pattern table 11bx of the corresponding music genre do not correspond, the likelihood of the state Jn calculated by the inter-state likelihood integration process is the inter-transition likelihood. It becomes larger than the likelihood of the state Jn calculated by the degree integration process. In this case, the likelihood table 12i keeps the likelihood calculated by the interstate likelihood integration process stored.
  • the likelihood of the state Jn can be appropriately calculated according to each case.
  • FIG. 16 is a flowchart of the user evaluation likelihood integration process.
  • the counter variable n is set to 1 (S80).
  • the “n” of the “state Jn” represents the counter variable n, as in the interstate likelihood integration process of FIG.
  • the state Jn when the counter variable n is 1 represents the “state J1”.
  • the user evaluation likelihood of the pattern corresponding to the state Jn is acquired from the user evaluation likelihood table 11e, and is added to the likelihood in the state Jn of the likelihood table 12i (S81).
  • 1 is added to the counter variable n (S82), and it is confirmed whether the counter variable n is larger than the total number of states Jn (S83).
  • the process of S83 if the counter variable n is equal to or less than the total number of states Jn (S83: No), the process of S81 or less is repeated.
  • the counter variable n is larger than the total number of states Jn (S83: Yes)
  • the user evaluation likelihood integration process is terminated, and the process returns to the input pattern search process of FIG.
  • the user evaluation likelihood is reflected in the likelihood table 12i by the user evaluation likelihood integration process. That is, the evaluation of the output pattern by the performer is reflected in the likelihood table 12i. Therefore, the likelihood of the likelihood table 12i increases as the output pattern state Jn is highly evaluated by the performer, so that the estimated output pattern can be made according to the evaluation of the performer.
  • the state Jn that takes the likelihood of the maximum value in the likelihood table 12i is acquired, and the pattern corresponding to the state Jn is acquired from the input pattern table 11bx of the corresponding music genre and selected pattern memory. It is stored in 12b (S34). That is, the state Jn most likely to be the performance information from the key 2a is acquired from the likelihood table 12i, and the pattern corresponding to the state Jn is acquired. As a result, the pattern most likely to be the performance information from the key 2a can be selected.
  • the state Jn in which the likelihood of the maximum value in the likelihood table 12i is taken.
  • the state Jn that takes the likelihood of the maximum value in the previous likelihood table 12j the current transition route Rm is acquired and stored in the transition route memory 12c (S36).
  • the state Jn that takes the maximum value likelihood in the likelihood table 12i and the state Jn that takes the maximum value likelihood in the previous likelihood table 12j are set to the transition route likelihood table 11dx of the corresponding music genre.
  • the transition destination state Jn and the transition source state Jn are searched, and the transition route Rm in which these states Jn match is acquired from the transition route likelihood table 11dx of the corresponding music genre and stored in the transition route memory 12c.
  • the tempo is calculated from the beat distance in the transition route Rm of the transition route memory 12c and the keystroke interval of the IOI memory 12e, and stored in the tempo memory 12d (S37).
  • the beat distance in the transition route Rm of the transition route interprobability table 11dx of the corresponding music genre, which matches the transition route Rm of the transition route memory 12c, is ⁇
  • the keystroke interval of the IOI memory 12e is x
  • the tempo memory 12d Assuming that the current tempo stored in is Vmb, the updated tempo Vm is calculated by Equation 5.
  • is a constant of 0 ⁇ ⁇ 1, and is a value preset by an experiment or the like.
  • the previous and current inputs by the key 2a are the previous ones. It is presumed that the transition was made in the transition route Rm between the state Jn in which the likelihood of the maximum value of the likelihood table 12j is taken and the state Jn in which the likelihood of the maximum value of the likelihood table 12i is taken.
  • the value of the likelihood table 12i is set in the previous likelihood table 12j (S38), and after the processing of S38, the input pattern search processing is terminated and the process returns to the key input processing of FIG. ..
  • the accompaniment sound is changed based on the pattern of the selection pattern memory 12b and the output pattern table 11cx of the corresponding music genre (S8). Specifically, the accompaniment sound is changed based on the drum pattern, the bass pattern, the chord progression, and the arpeggio progression corresponding to the pattern of the selection pattern memory 12b in the output pattern table 11cx of the corresponding music genre.
  • the tempo of the accompaniment sound is also set to the tempo of the updated tempo memory 12d.
  • the processing of S101 if the accompaniment change setting is off (S101: No), the processing of S7 and S8 is skipped.
  • a musical tone is output (S9) based on the performance information of the key 2a, and the key input processing is terminated.
  • the timbre of the musical tone based on the performance information of the key 2a is the timbre corresponding to the pattern of the selection pattern memory 12b in the output pattern table 11cx of the corresponding music genre, and the corresponding musical genre is output for the musical tone.
  • the volume / velocity and effect corresponding to the pattern of the selected pattern memory 12b in the pattern table 11cx are applied and output.
  • the effect on the musical tone based on the performance information of the key 2a is applied by processing the waveform data of the musical tone output from the sound source 13 by the DSP 14.
  • the accompaniment change setting When the accompaniment change setting is on, the rhythm and pitch of the accompaniment sound are switched at any time according to the performance information from the key 2a by the input pattern search process of S7 and the process of S8. On the other hand, when the accompaniment change setting is off, the processing of S7 and S8 is skipped, so that the rhythm and pitch of the accompaniment sound are not switched even if the performance information from the key 2a changes. As a result, by changing the accompaniment change setting according to the will of the performer, it is possible to output an accompaniment sound in a mode suitable for the performer's performance.
  • the mode of the accompaniment sound can be changed in more detail by switching the calculated likelihood based on the rhythm change setting and the pitch change setting in the likelihood calculation process of FIG.
  • the rhythm change setting when the rhythm change setting is on in FIG. 13, the rhythm for the input to the key 2a, that is, the IOI likelihood table 12h and the accompaniment synchronization likelihood table 12g regarding the keystroke interval and the beat position are updated.
  • the rhythm of the accompaniment sound can be switched according to the performance information of 2a.
  • the rhythm change setting when the rhythm change setting is off, the IOI likelihood table 12h and the accompaniment synchronization likelihood table 12g related to the rhythm are not updated, so that the rhythm of the accompaniment sound is fixed regardless of the performance information of the key 2a.
  • the performance according to the key 2a can be performed while intentionally removing the timing from the rhythm of the accompaniment sound. You can play with rich expressions regarding the rhythm of accompaniment sounds.
  • the pitch likelihood table 12f related to the pitch of the key 2a is updated, so that the chord progression of the accompaniment sound is changed according to the performance information of the key 2a, and the sound of the accompaniment sound. You can switch between highs.
  • the pitch change setting is off, the pitch likelihood table 12f is not updated, so that the chord progression of the accompaniment note is fixed regardless of the performance information of the key 2a.
  • the musical sound corresponding to the key 2a can be output while the chord progression of the accompaniment sound is constant. Therefore, for example, when performing a solo performance with the musical sound corresponding to the key 2a, the chord progression of the accompaniment sound does not change. As a result, it is possible to make the solo performance stand out, and it is possible to perform an expressive performance regarding the chord progression of the accompaniment sound.
  • accompaniment change settings are set by the setting keys 50 (FIGS. 1 and 2).
  • the mode of the accompaniment sound can be easily and quickly changed by operating the setting key 50 at the will of the performer during the performance and appropriately changing the accompaniment change setting, the rhythm change setting, and the pitch change setting.
  • the process of S6 if the performance information is not input from the key 2a (S6: No), it is further confirmed whether the performance information is input from the key 2a for 6 bars or more (S10).
  • the process of S10 when the input of the performance information from the key 2a is not 6 bars or more (S10: Yes), the process shifts to the ending part of the corresponding music genre (S11). That is, if the performer does not perform for 6 bars or more, it is estimated that the performance has ended. In such a case, by shifting to the ending part of the corresponding music genre, the performer can shift to the ending part without performing the synthesizer 1 operation.
  • the synthesizer 1 is illustrated as an automatic performance device.
  • the present invention is not limited to this, and may be applied to electronic musical instruments such as electronic organs and electronic pianos that output accompaniment sounds and effects as well as musical sounds played by the performer.
  • a drum pattern, a bass pattern, a chord progression, an arpeggio progression, an effect, a volume / velocity, and a timbre are set as output patterns.
  • musical expressions other than drum patterns, bass patterns, chord progressions, arpeggio progressions, effects, volume / velocity and timbre such as drums, rhythm patterns other than bass, and human singing voices. It may be configured to add audio data such as, etc. to the output pattern.
  • the element of the output pattern to be switched may be set in advance, and when switching the output pattern, only the set output pattern may be switched. As a result, the output pattern can be set according to the taste of the performer.
  • mode 1 or 2 may be omitted from the three modes.
  • the process of S101 may be omitted from the key input process of FIG. 11, and if the rhythm change setting is omitted, the process of S110 is performed from the likelihood calculation process of FIG. It may be omitted, and when the pitch change setting is omitted, the process of S111 may be omitted from the likelihood calculation process of FIG.
  • the pitch likelihood and the accompaniment synchronization likelihood are calculated for all states Jn.
  • the present invention is not limited to this, and the pitch likelihood and the accompaniment synchronization likelihood may be calculated for some states Jn.
  • the pitch likelihood and the accompaniment synchronization likelihood may be calculated for some states Jn.
  • the transition route Rm in which the state Jn that takes the maximum likelihood in the previous likelihood table 12j is the transition source state Jn only the state Jn that is the transition destination state Jn has the pitch likelihood and the accompaniment synchronization likelihood. It may be configured to calculate the degree.
  • the playing time of the accompaniment sound in each output pattern is set to the length of two measures in a four-quarter time signature.
  • the playing time of the accompaniment sound is not necessarily limited to this, and the playing time of the accompaniment sound may be one bar or more.
  • the time signature per bar in the accompaniment sound is not limited to the four-quarter time signature, and other time signatures such as a three-quarter time signature and a six-eighth time signature may be appropriately used.
  • the transition route by skipping the transition from the state Jn two before is set.
  • the present invention is not necessarily limited to this, and the transition route due to skipping may include a transition route that transitions from the state Jn three or more before in the same pattern. Further, the transition route due to skipping may be omitted from the transition route to the state Jn between the same patterns.
  • a transition route to the state Jn between different patterns a transition route in which the state Jn of the different pattern, which is the transition source, is immediately before the beat position of the transition destination state Jn is set. It was configured. However, this is not necessarily limited to this, and even for a transition route to the state Jn between different patterns, a transition route due to skipping that transitions from two or more previous states Jn in another pattern that is the transition source. It may be configured to set.
  • the IOI likelihood G is configured to follow the Gaussian distribution of Equation 1
  • the accompaniment synchronization likelihood B is configured to follow the Gaussian distribution of Equation 2.
  • the present invention is not necessarily limited to this, and the IOI likelihood G may be configured to follow another probability distribution function such as the Laplace distribution.
  • the likelihood L_n obtained by removing the logarithm from the log-likelihood log (L_n) calculated by the equation 3 is stored in the likelihood table 12i, and S71 of FIG.
  • the likelihood L obtained by removing the logarithm from the log-likelihood log (L) calculated by the equation 4 is stored in the likelihood table 12i.
  • the present invention is not necessarily limited to this, and the log-likelihood log (L_n) or the log-likelihood log (L) calculated by the equations 3 and 4 is stored in the likelihood table 12i.
  • the pattern may be selected in the process of S34 in FIG. 12 and the tempo may be updated in the processes of S35 to S37. ..
  • the state Jn and the pattern are estimated, and the output pattern is switched to the estimated pattern.
  • the state Jn and the pattern are estimated and the output pattern is switched to the estimated pattern based on the performance information within a certain period of time (for example, 2 bars or 4 bars). It may be configured to be performed.
  • the output pattern is switched at least at regular intervals, so that the output pattern, that is, the situation where the accompaniment and the effect are frequently switched is suppressed, and the accompaniment and the effect are not uncomfortable for the performer and the audience. be able to.
  • the performance information is input from the keyboard 2.
  • an external MIDI standard keyboard may be connected to the synthesizer 1 and performance information may be input from the keyboard.
  • the accompaniment sound and the musical sound are output from the sound source 13, the DSP 14, the DAC 16, the amplifier 17, and the speaker 18 provided in the synthesizer 1.
  • a MIDI standard sound source device may be connected to the synthesizer 1 and the accompaniment sound or musical sound of the synthesizer 1 may be output from the sound source device.
  • the performer's evaluation of the accompaniment sound and the effect is performed by the user evaluation button 3.
  • the synthesizer 1 has a sensor that detects the player's biological information, for example, an electroencephalogram sensor that detects the player's brain wave (an example of an electroencephalogram detecting means), or a brain blood that detects the player's cerebral blood flow.
  • the performer may be evaluated by connecting a flow sensor or the like and estimating the performer's impression of the accompaniment sound or effect based on the biological information.
  • an motion sensor for detecting the performer's motion is connected to the synthesizer 1, and the performer's evaluation is performed according to the performer's specific gesture, hand gesture, etc. detected from the motion sensor. It may be configured to perform.
  • a facial expression sensor for detecting the facial expression of the performer is connected to the synthesizer 1, and a specific facial expression of the performer detected from the facial expression sensor, for example, a smile or a dissatisfied facial expression, etc.
  • the performer may be evaluated according to a facial expression showing a good or bad impression to the performer, a change in the facial expression, or the like.
  • a posture sensor (an example of posture detecting means) that detects the posture of the performer is connected, and the player's specific posture (forward tilt, backward tilt) or change in posture detected by the posture sensor is responded to. , It may be configured to evaluate the performer.
  • a camera that acquires the image of the performer is connected to the synthesizer 1, and the image acquired from the camera is analyzed to obtain the motion, facial expression, and posture of the performer. It may be configured to detect and evaluate the performer. By evaluating the performer according to the detection result from the sensor that detects the biological information, the motion sensor, the facial expression sensor, the attitude sensor, or the camera, the performer does not operate the user evaluation button 3, and the accompaniment sound. And effects can be evaluated, so the operability of the synthesizer 1 can be improved.
  • the user evaluation likelihood is configured as the performer's evaluation of the accompaniment sound and the effect.
  • the present invention is not necessarily limited to this, and the user evaluation likelihood may be configured to be the evaluation of the audience for the accompaniment sound or effect, or may be the evaluation of the performer or audience for the accompaniment sound or effect.
  • the audience is provided with a remote control device for transmitting high or low evaluations for accompaniment sounds and effects to the synthesizer 1, and user evaluations are made based on the number of high and low evaluations from the remote control device.
  • the configuration may be such that the likelihood is calculated.
  • the synthesizer 1 may be provided with a microphone, and the user evaluation likelihood may be calculated based on the loudness of cheers from the audience.
  • control program 11a is stored in the flash ROM 11 of the synthesizer 1 and operates on the synthesizer 1.
  • the present invention is not limited to this, and the control program 11a may be operated on another computer such as a PC (personal computer), a mobile phone, a smartphone, or a tablet terminal.
  • the performance information may be input from a MIDI standard keyboard or a character input keyboard connected to a PC or the like by wire or wirelessly, or the display of the PC or the like may be used.
  • the performance information may be input from the software keyboard displayed on the device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】演奏者の意志に応じて、演奏者の演奏に適合した自動演奏を行うことができる自動演奏装置および自動演奏プログラムを提供すること。 【解決手段】シンセサイザ1は、伴奏変更設定がオンの場合は、S7の入力パターン検索処理やS8の処理により、鍵2aからの演奏情報に応じて伴奏音のリズムや音高が切り替わる。一方で、伴奏変更設定がオフの場合は、S7,S8の処理がスキップされるので、鍵2aからの演奏情報が変化しても、伴奏音のリズムや音高が切り替わらない。従って、演奏者の意志に応じて伴奏変更設定のオン/オフを変更することで、演奏者の演奏に適合した態様の伴奏音を出力できる。

Description

自動演奏装置および自動演奏プログラム
 本発明は、自動演奏装置および自動演奏プログラムに関するものである。
 特許文献1には、自動伴奏データの検索装置が開示されている。該装置では、利用者がリズム入力装置10の鍵盤を押鍵すると、押鍵されたこと即ち演奏操作がなされたことを示すトリガーデータと、押鍵の強度即ち当該演奏操作の強度を示すベロシティデータとが、1小節を単位とした入力リズムパターンとして情報処理装置20へ入力される。
 情報処理装置20は、自動伴奏データを複数含んだデータベースを有している。自動伴奏データは、各々が固有のリズムパターンを持つ複数のパートで構成されている。情報処理装置20は、リズム入力装置10から入力リズムパターンを入力すると、その入力リズムパターンと同一又は類似したリズムパターンを持つ自動伴奏データを検索し、検索された自動伴奏データの名称等を一覧表示する。情報処理装置20は、その一覧表示から利用者によって選択された自動伴奏データに基づく音を出力する。
 このように特許文献1の装置では、自動伴奏データの選択に際し、利用者は、入力リズムパターンを入力した上で、一覧表示の中から所望の自動伴奏データを選択しなければならず、その選択操作が煩雑であった。
特開2012-234167号公報 特開2007-241181号公報
 これに対し本願出願人は、特願2018-096439号に記載した自動演奏装置及びそのプログラムを開発した(未公知)。該装置及びプログラムによれば、演奏者により演奏(入力)された演奏情報に基づいて、伴奏音やエフェクトの組み合わせである複数の出力パターンの中から出力パターンを推定し、該当する伴奏音やエフェクトを出力する。即ち演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトの自動演奏を行うことができる。
 しかしながら、該装置及びプログラムでは、演奏者による演奏(入力)に基づいて自動演奏を変化させるので、ソロ演奏を行う際にコードチェンジして欲しくない場合や、ドラム演奏などのリズムを一定にして演奏したい場合においても、これらが変化してしまうことがあるという問題点があった。
 本発明は、上記問題点を解決するためになされたものであり、演奏者の意志に応じて、演奏者の演奏に適合した自動演奏を行うことができる自動演奏装置および自動演奏プログラムを提供することを目的としている。
 この目的を達成するために本発明の自動演奏装置は、複数の演奏パターンを記憶する記憶手段と、その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、演奏者の演奏操作を受け付ける入力装置から演奏情報を入力する入力手段と、前記演奏手段による演奏の切り替えを行うかのモードを設定する設定手段と、その設定手段により前記演奏手段による演奏の切り替えを行うモードが設定されている場合に、前記入力手段に入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択手段と、前記演奏手段により演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択手段により選択された演奏パターンの音楽表現に切り替える切替手段とを備えていることを特徴としている。
 ここで「入力装置」としては、例えば、自動演奏装置本体に搭載される鍵盤等のほか、自動演奏装置とは別体に構成された外部装置の鍵盤やキーボードなどを例示できる。
 本発明の自動演奏プログラムは、記憶部を備えたコンピュータに、自動演奏を実行させるものであり、前記記憶部を、複数の演奏パターンを記憶する記憶手段として機能させ、その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏ステップと、演奏者の演奏操作を受け付ける入力装置から演奏情報を入力する入力ステップと、前記演奏ステップによる演奏の切り替えを行うかのモードを設定する設定ステップと、その設定ステップにより前記演奏ステップによる演奏の切り替えを行うモードが設定されている場合に、前記入力ステップにより入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択ステップと、前記演奏ステップにより演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択ステップにより選択された演奏パターンの音楽表現に切り替える切替ステップと、を前記コンピュータに実現させることを特徴としている。
 ここで「入力装置」としては、例えば、自動演奏プログラムが搭載されるコンピュータに有線接続又は無線接続されるキーボードや鍵盤等を例示できる。
一実施形態であるシンセサイザの外観図である。 シンセサイザの電気的構成を示すブロック図である。 (a)は、伴奏音の拍位置を説明するための模式図であり、(b)は、入力パターンの一例を表す表である。 入力パターンの状態を説明するための表である。 (a)は、入力パターンテーブルを模式的に示した図であり、(b)は、出力パターンテーブルを模式的に示した図である。 (a)は、遷移ルートを説明するための図であり、(b)は、遷移ルート間尤度テーブルを模式的に示す図である。 (a)は、ユーザ評価尤度テーブルを模式的に示した図であり、(b)は、音高尤度テーブルを模式的に示した図であり、(c)は、伴奏同期尤度テーブルを模式的に示した図である。 (a)は、IOI尤度テーブルを模式的に示した図であり、(b)は、尤度テーブルを模式的に示した図であり、(c)は、前回尤度テーブルを模式的に示した図である。 メイン処理のフローチャートである。 ユーザ評価反映処理のフローチャートである。 キー入力処理のフローチャートである。 入力パターン検索処理のフローチャートである。 尤度算出処理のフローチャートである。 状態間尤度統合処理のフローチャートである。 遷移間尤度統合処理のフローチャートである。 ユーザ評価尤度統合処理のフローチャートである。
 以下、好ましい実施例について、添付図面を参照して説明する。図1は、一実施形態であるシンセサイザ1の外観図である。シンセサイザ1は、演奏者(利用者)の演奏操作による楽音や、所定の伴奏音等を混ぜ合わせて出力(放音)する電子楽器(自動演奏装置)である。シンセサイザ1は、演奏者の演奏による楽音や、伴奏音等を混ぜ合わせた波形データに対して演算処理を行うことで、リバーブやコーラス、ディレイ等の効果(エフェクト)を施すことができる。
 図1に示す通り、シンセサイザ1には、主に鍵盤2と、ユーザ評価ボタン3と、設定キー50とが配設される。鍵盤2には、複数の鍵2aが配設され、演奏者の演奏による演奏情報を取得するための入力装置である。演奏者による鍵2aの押鍵/離鍵操作に応じたMIDI(Musical Instrument Digital Interface)規格の演奏情報が、CPU10(図2参照)へ出力される。
 ユーザ評価ボタン3は、シンセサイザ1から出力される伴奏音やエフェクトに対する、演奏者の評価(高評価または低評価)をCPU10へ出力するボタンであり、演奏者の高評価を表す情報をCPU10へ出力する高評価ボタン3aと、演奏者の低評価を表す情報をCPU10へ出力する低評価ボタン3bとで構成される。演奏者にとって、シンセサイザ1から出力されている伴奏音やエフェクトが良い印象である場合は、高評価ボタン3aが押され、一方で、出力されている伴奏音やエフェクトがあまり良くない又は悪い印象である場合は、低評価ボタン3bが押される。そして、押された高評価ボタン3a又は低評価ボタン3bに応じた、高評価または低評価を表す情報がCPU10へ出力される。
 詳細は後述するが、本実施形態のシンセサイザ1には、伴奏音やエフェクトの組み合わせである複数の出力パターンの中から、演奏者による鍵2aからの演奏情報に基づいて出力パターンが推定され、該当する伴奏音やエフェクトが出力される。これによって、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトの出力を行うことができる。その際に、演奏者によって高評価ボタン3aが多く押された伴奏音やエフェクトの出力パターンが、より優先的に選択される。これにより、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトの出力を行うことができる。
 設定キー50は、シンセサイザ1への各種設定を入力するための操作子である。設定キー50によって特に、伴奏音に関する3つのモードのオン/オフが設定される。具体的には伴奏音を鍵盤2への入力に応じて切り換える伴奏変更設定のオン/オフや、伴奏音の切り替えに際し、拍位置や打鍵間隔(入力間隔)を考慮するかどうかを設定するリズム変更設定のオン/オフや、伴奏音の切り替えに際し、鍵盤2から入力される音高を考慮するかどうかを設定する音高変更設定のオン/オフが設定される。
 次に、図2~図8を参照して、シンセサイザ1の電気的構成を説明する。図2は、シンセサイザ1の電気的構成を示すブロック図である。シンセサイザ1は、CPU10と、フラッシュROM11と、RAM12と、鍵盤2と、ユーザ評価ボタン3と、音源13と、Digital Signal Processor14(以下「DSP14」と称す)と、設定キー50とを有し、それぞれバスライン15を介して接続される。DSP14にはデジタルアナログコンバータ(DAC)16が接続され、そのDAC16にはアンプ17が接続され、アンプ17にはスピーカ18が接続される。
 CPU10は、バスライン15により接続された各部を制御する演算装置である。フラッシュROM11は書き換え可能な不揮発性のメモリであり、制御プログラム11aと、入力パターンテーブル11bと、出力パターンテーブル11cと、遷移ルート間尤度テーブル11dと、ユーザ評価尤度テーブル11eとが設けられる。波形データ23aには鍵盤2を構成する、各鍵に対応する波形データが記憶される。CPU10によって制御プログラム11aが実行されると、図9のメイン処理が実行される。
 入力パターンテーブル11bは、演奏情報と、その演奏情報に合致する入力パターンとが記憶されるデータテーブルである。ここで、本実施形態のシンセサイザ1における伴奏音の拍位置と状態とパターン名とについて、図3を参照して説明する。
 図3(a)は、伴奏音の拍位置を説明するための模式図である。本実施形態のシンセサイザ1は、伴奏音とエフェクトとの組み合わせである出力パターンが複数記憶され、各出力パターンには、その出力パターンに対応する一連の拍位置および音高からなる入力パターンが設定される。演奏者による鍵2aからの演奏情報と、各入力パターンの拍位置および音高とに基づいて、演奏者による鍵2aからの演奏情報に「尤もらしい」入力パターンが推定され、該入力パターンに対応する出力パターンの伴奏音とエフェクトとが出力される。以下、入力パターンと出力パターンとの組み合わせを「パターン」と称す。
 本実施形態では、図3(a)に示す通り、各出力パターンにおける伴奏音の演奏時間は、4分の4拍子における2小節分の長さとされる。この2小節分の長さを16分音符の長さで等分した(即ち、32等分した)拍位置B1~B32が、時間的位置の1単位とされる。なお、図3(a)の時間ΔTは16分音符の長さを表している。かかる拍位置B1~B32に対して、それぞれの出力パターンの伴奏音やエフェクトに対応する音高を配置したものが入力パターンとされる。かかる入力パターンの一例を図3(b)に示す。
 図3(b)は、入力パターンの一例を表す表である。図3(b)に示す通り、入力パターンにはそれぞれ、拍位置B1~B32に対する音高(ド、レ、ミ、・・・)が設定される。ここで、パターンP1,P2,・・・は、入力パターンと後述の出力パターンとを対応付けるための識別名である。
 入力パターンには、ある拍位置B1~B32に対して単一の音高だけが設定されるのでなく、2以上の音高の組み合わせも指定できる。本実施形態では、2以上の音高が同時に入力されることを指定する場合には、その拍位置B1~B32に対して、該当する音高名が「&」で連結される。例えば、図3(b)における入力パターンP3の拍位置B5では、音高「ド&ミ」が指定されるが、これは「ド」と「ミ」とが同時に入力されることが指定されている。
 また、拍位置B1~B32に対して、いずれかの音高(所謂、ワイルドカード音高)の入力されることも指定できる。本実施形態では、ワイルドカード音高が入力されることを指定する場合には、その拍位置B1~B32に対して「〇」が指定される。例えば、図3(b)における入力パターンP2の拍位置B7では、ワイルドカード音高の入力が指定されているので、「〇」が指定されている。
 なお、入力パターンにおいて、演奏情報の入力が指定される拍位置B1~B32に対して音高が定義され、一方で、演奏情報の入力が指定されない拍位置B1~B32に対して音高は定義されない。
 本実施形態では、入力パターンに対する拍位置B1~B32と音高との組み合わせを管理するため、これらの組み合わせを1の「状態」として定義する。かかる入力パターンに対する状態を、図4を参照して説明する。
 図4は、入力パターンの状態を説明するための表である。図4に示す通り、入力パターンP1の拍位置B1から順に、音高が指定されている拍位置B1~B32に対して、状態J1,J2,・・・が定義される。具体的には、入力パターンP1の拍位置B1が状態J1,入力パターンP1の拍位置B5が状態J2,・・・,入力パターンP1の拍位置B32が状態J8と定義され、入力パターンP2の拍位置B1が状態J8に続いて、状態J9と定義される。以下、状態J1,J2,・・・に対して、特に区別しない場合は「状態Jn」と略す。
 図2における入力パターンテーブル11bには、状態Jn毎に、該当する入力パターンのパターン名と、拍位置B1~B32と、音高とが記憶される。かかる入力パターンテーブル11bについて、図5(a)を参照して説明する。
 図5(a)は、入力パターンテーブル11bを模式的に示した図である。入力パターンテーブル11bは、シンセサイザ1で指定可能な音楽ジャンル(ロックやポップ、ジャズ等)に対して、状態Jn毎に、該当する入力パターンのパターン名と、拍位置B1~B32と、音高とが記憶されるデータテーブルである。本実施形態において、入力パターンテーブル11bには音楽ジャンル毎の入力パターンが記憶され、入力パターンテーブル11bの中から、選択された音楽ジャンルに応じた入力パターンが参照される。
 具体的には、音楽ジャンル「ロック」に該当する入力パターンが入力パターンテーブル11brとされ、音楽ジャンル「ポップ」該当する入力パターンが入力パターンテーブル11bpとされ、音楽ジャンル「ジャズ」に該当する入力パターンが入力パターンテーブル11bjとされ、その他の音楽ジャンルについても、同様に入力パターンが記憶される。以下、入力パターンテーブル11bにおける入力パターンテーブル11bp,11br,11bj・・・について、特に区別しない場合は「入力パターンテーブル11bx」と称す。
 鍵2aからの演奏情報が入力された場合、その演奏情報の拍位置および音高と、選択されている音楽ジャンルに該当する入力パターンテーブル11bxの拍位置および音高とから「尤もらしい」状態Jnが推定され、該状態Jnから入力パターンが取得され、該入力パターンのパターン名に該当する出力パターンの伴奏音およびエフェクトが出力される。
 図2に戻る。出力パターンテーブル11cは、パターン毎の伴奏音とエフェクトとの組み合わせである出力パターンが記憶されるデータテーブルである。かかる出力パターンテーブル11cについて、図5(b)を参照して説明する。
 図5(b)は、出力パターンテーブル11cを模式的に示した図である。入力パターンテーブル11bと同様に、出力パターンテーブル11cにも音楽ジャンル毎の出力パターンが記憶される。具体的には、出力パターンテーブル11cのうち、音楽ジャンル「ロック」該当する出力パターンが出力パターンテーブル11crとされ、音楽ジャンル「ポップ」該当する出力パターンが出力パターンテーブル11cpとされ、音楽ジャンル「ジャズ」該当する出力パターンが出力パターンテーブル11cjとされ、その他の音楽ジャンルについても、出力パターンが記憶される。以下、出力パターンテーブル11cの出力パターンテーブル11cp,11cr,11cj・・・について、特に区別しない場合は「出力パターンテーブル11cx」と称す。
 出力パターンテーブル11cxには、出力パターン毎に、伴奏音としてのドラムのリズムパターンが記憶されるドラムパターン、ベースのリズムパターンが記憶されるベースパターン、コード(和音)の進行が記憶されるコード進行およびアルペジオの進行が記憶されるアルペジオ進行と、エフェクトの態様が記憶されるエフェクトと、伴奏音や演奏者による鍵2aからの演奏情報に基づく楽音の音量/ベロシティ値が記憶される音量/ベロシティと、演奏者による鍵2aからの演奏情報に基づく楽音の音色が記憶される音色とが設けられる。
 ドラムパターンとしては、それぞれ異なるドラムの演奏情報であるドラムパターンDR1,DR2,・・・が予め設定され、出力パターン毎にドラムパターンDR1,DR2,・・・が設定される。また、ベースパターンとしては、それぞれ異なるドラムの演奏情報であるベースパターンBa1,Ba2,・・・が予め設定され、出力パターン毎にベースパターンBa1,Ba2,・・・が設定される。
 コード進行としては、それぞれ異なるコード進行による演奏情報であるコード進行Ch1,Ch2・・・が予め設定され、出力パターン毎にコード進行Ch1,Ch2・・・が設定される。また、アルペジオ進行としては、それぞれ異なるアルペジオ進行による演奏情報であるアルペジオ進行AR1,AR2・・・が予め設定され、出力パターン毎にアルペジオ進行AR1,AR2・・・が設定される。
 伴奏音として出力パターンテーブル11cxに記憶される、ドラムパターンDR1,DR2,・・・,ベースパターンBa1,Ba2,・・・,コード進行Ch1,Ch2・・・及びアルペジオ進行AR1,AR2・・・の演奏時間は、上述した通り2小節分の長さとされる。かかる2小節分の長さは音楽表現において一般的な単位でもあるので、同一のパターンが継続され、伴奏音が繰り返し出力される場合でも、演奏者や聴衆にとって違和感の無い伴奏音とすることができる。
 エフェクトとしては、それぞれ異なる態様のエフェクトEf1,Ef2,・・・が予め設定され、出力パターン毎にエフェクトEf1,Ef2,・・・が設定される。音量/ベロシティとして、それぞれ異なる値の音量/ベロシティVe1,Ve2,・・・が予め設定され、出力パターン毎に音量/ベロシティVe1,Ve2,・・・が設定される。また、音色として、それぞれ異なる楽器等による音色Ti1,Ti2,・・・が予め設定され、それぞれ出力パターン毎に音色Ti1,Ti2,・・・が設定される。
 また、選択された出力パターンに設定されている音色Ti1,Ti2,・・・に基づいて鍵2aからの演奏情報に基づく楽音が出力され、選択された出力パターンに設定されているエフェクトEf1,Ef2,・・・及び音量/ベロシティVe1,Ve2,・・・が、鍵2aからの演奏情報に基づく楽音および伴奏音に対して適用される。
 図2に戻る。遷移ルート間尤度テーブル11dは、状態Jn間の遷移ルートRmと、その遷移ルートRmの拍位置B1~B32間の距離である拍距離と、遷移ルートRmに対するパターン遷移尤度および打ち損ない尤度とが記憶されるデータテーブルである。ここで、遷移ルートRm及び遷移ルート間尤度テーブル11dについて、図6を参照して説明する。
 図6(a)は、遷移ルートRmを説明するための図であり、図6(b)は、遷移ルート間尤度テーブル11dを模式的に示す図である。図6(a)の横軸は拍位置B1~B32を示している。図6(a)に示す通り、時間経過により、拍位置が拍位置B1から拍位置B32へ進行するとともに、各パターンにおける状態Jnも変化していく。本実施形態では、かかる状態Jn間の遷移において、想定される状態Jn間の経路が予め設定される。以下、予め設定された状態Jn間の遷移に対する経路のことを「遷移ルートR1,R2,R3,・・・」と称し、これらを特に区別しない場合は「遷移ルートRm」と称す。
 図6(a)では、状態J3に対する遷移ルートを示している。状態J3への遷移ルートとして、大きく分けて状態J3と同一のパターン(即ちパターンP1)の状態Jnから遷移する場合と、状態J3とは異なるパターンの状態Jnから遷移する場合との2種類が設定される。
 状態J3と同一のパターンP1における、状態Jnからの遷移として、直前の状態である状態J2から状態J3へ遷移する遷移ルートR3と、状態J3の2つ前の状態である状態J1からの遷移ルートである遷移ルートR2とが設定される。即ち、本実施形態では、同一のパターン間における状態Jnへの遷移ルートとして、直前の状態Jnから遷移する遷移ルートと、2つ前の状態から遷移する「音飛び」の遷移ルートとの、多くとも2の遷移ルートが設定される。
 一方で、状態J3とは異なるパターンの状態Jnから遷移する遷移ルートとして、パターンP2の状態J11から状態J3へ遷移する遷移ルートR8と、パターンP3の状態J21から状態J3へ遷移する遷移ルートR15と、パターンP10の状態J74から状態J3へ遷移する遷移ルートR66等が挙げられる。即ち、別パターン間における状態Jnへの遷移ルートとして、その遷移元である別パターンの状態Jnが、遷移先の状態Jnの拍位置の直前のものである遷移ルートが設定される。
 図6(a)で例示した遷移ルート以外にも、状態J3への遷移ルートRmが複数設定される。また、状態J3と同様に、各状態Jnに対しても1又は複数の遷移ルートRmが設定される。
 鍵2aからの演奏情報に基づいて「尤もらしい」状態Jnが推定され、その状態Jnに該当する入力パターンに対応する出力パターンによる伴奏音やエフェクトが出力される。本実施形態では、状態Jn毎に設定される、鍵2aからの演奏情報と状態Jnとの「尤もらしさ」を表す数値である尤度に基づいて、状態Jnが推定される。本実施形態では、状態Jnに対する尤度が、状態Jnそのものに基づく尤度や、遷移ルートRmに基づく尤度、あるいは、パターンに基づく尤度を統合することで算出される。
 遷移ルート間尤度テーブル11dxに記憶される、パターン遷移尤度および打ち損ない尤度は、遷移ルートRmに基づく尤度である。具体的に、まずパターン遷移尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一パターンであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが同一パターンである場合は、パターン遷移尤度に「1」が設定され、遷移ルートRmの遷移元と遷移先との状態Jnが別のパターンである場合は、パターン遷移尤度に「0.5」が設定される。
 例えば、図6(b)において、遷移ルートR3は、遷移元がパターンP1の状態J2であり、遷移先が同じくパターンP1の状態J3なので、遷移ルートR3のパターン遷移尤度には「1」が設定される。一方で、遷移ルートR8は、遷移元がパターンP2の状態J11であり、遷移先がパターンP1の状態J3なので、遷移ルートR8は異なるパターン間の遷移ルートである。従って、遷移ルートR8のパターン遷移尤度には「0.5」が設定される。
 パターン遷移尤度に対して、同一のパターンに対する遷移ルートRmのパターン遷移尤度の方が、別パターンに対する遷移ルートRmのパターン遷移尤度よりも大きな値が設定される。これは、実際の演奏においては別パターンへ遷移する確率よりも、同一パターンに留まる確率の方が高いからである。従って、同一パターンへの遷移ルートRmにおける遷移先の状態Jnの方が、別パターンへの遷移ルートRmにおける遷移先の状態Jnよりも優先的に推定されることで、別パターンへの遷移が抑制され、出力パターンが頻繁に変更されることを抑制できる。これにより、伴奏音やエフェクトが頻繁に変更されることが抑制できるので、演奏者や聴衆に違和感の少ない伴奏音やエフェクトとできる。
 また、遷移ルート間尤度テーブル11dxに記憶される打ち損ない尤度は、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが同一のパターンであり、なおかつ遷移元の状態Jnが遷移先の状態Jnよりも2つ前の状態Jnであるかどうか、即ち、遷移ルートRmに対する遷移元の状態Jnと、遷移先の状態Jnとが音飛びによる遷移ルートであるかどうかを表す尤度である。本実施形態では、遷移ルートRmの遷移元と遷移先との状態Jnが音飛びによる遷移ルートRmに対しては、打ち損ない尤度に「0.45」が設定され、音飛びによる遷移ルートRmではない場合は、打ち損ない尤度に「1」が設定される。
 例えば、図6(b)において、遷移ルートR1は、同一のパターンP1における隣接した状態J1と状態J2との遷移ルートであり、音飛びによる遷移ルートではないので、打ち損ない尤度に「1」が設定される。一方で、遷移ルートR2は、遷移先である状態J3が、遷移元の状態J1よりも2つ先の状態であるので、打ち損ない尤度に「0.45」が設定される。
 上述した通り、同一パターンにおいては、遷移先の状態Jnの2つ前の状態Jnを遷移元の状態Jnとした、音飛びによる遷移ルートRmも設定される。実際の演奏においては、音飛びによる遷移が発生する確率は、通常の遷移が発生する確率よりも低い。そこで、音飛びによる遷移ルートRmの打ち損ない尤度の方が、音飛びでない通常の遷移ルートRmの打ち損ない尤度よりも小さな値を設定することで、実際の演奏と同様に、音飛びによる遷移ルートRmの遷移先の状態Jnよりも、通常の遷移ルートRmの遷移先の状態Jnを優先して推定することができる。
 また、図6(b)に示す通り、遷移ルート間尤度テーブル11dには、シンセサイザ1に指定される各音楽ジャンルに対して、遷移ルートRm毎に、その遷移ルートRmの遷移元の状態Jnと、遷移先の状態Jnと、パターン遷移尤度と、打ち損ない尤度とが対応付けられて記憶される。本実施形態では、遷移ルート間尤度テーブル11dも音楽ジャンル毎に遷移ルート間尤度テーブルが記憶され、音楽ジャンル「ロック」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11drとされ、音楽ジャンル「ポップ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11dpとされ、音楽ジャンル「ジャズ」に該当する遷移ルート間尤度テーブルが遷移ルート間尤度テーブル11djとされ、その他の音楽ジャンルについても、遷移ルート間尤度テーブルが定義される。以下、遷移ルート間尤度テーブル11dにおける遷移ルート間尤度テーブル11dp,11dr,11dj、・・・について、特に区別しない場合は「遷移ルート間尤度テーブル11dx」と称す。
 図2に戻る。ユーザ評価尤度テーブル11eは、演奏者による演奏中の出力パターンに対する評価結果を記憶するデータテーブルである。
 ユーザ評価尤度は、図1で上述したユーザ評価ボタン3からの入力に基づいて、パターン毎に設定される尤度である。具体的には、出力中の伴奏音やエフェクトに対して、演奏者がユーザ評価ボタン3の高評価ボタン3a(図1)が押された場合は、出力中の伴奏音やエフェクトに該当するパターンのユーザ評価尤度に対して「0.1」が加算される。一方で、出力中の伴奏音やエフェクトに対して、演奏者がユーザ評価ボタン3の低評価ボタン3b(図1)が押された場合は、出力中の伴奏音やエフェクトに該当するパターンのユーザ評価尤度に対して「0.1」が減算される。
 即ち、演奏者にとって、高評価を受けた伴奏音やエフェクトのパターンには、より大きなユーザ評価尤度が設定され、低評価を受けた伴奏音やエフェクトのパターンには、より小さなユーザ評価尤度が設定される。そして、パターンに該当する状態Jnの尤度に対してユーザ評価尤度が適用され、その状態Jn毎のユーザ評価尤度に基づいて鍵2aからの演奏情報に対する状態Jnが推定される。従って、演奏者によってより高評価を受けたパターンによる伴奏音やエフェクトが優先的に出力されるので、演奏者の演奏に対する好みに基づいた伴奏音やエフェクトを、より確率良く出力できる。図7(a)を参照して、ユーザ評価尤度が記憶されるユーザ評価尤度テーブル11eについて説明する。
 図7(a)は、ユーザ評価尤度テーブル11eを模式的に示した図である。ユーザ評価尤度テーブル11eは、音楽ジャンル(ロックやポップ、ジャズ等)に対して、パターン毎に、演奏者の評価に基づくユーザ評価尤度が記憶されるデータテーブルである。本実施形態では、ユーザ評価尤度テーブル11eのうち、音楽ジャンル「ロック」に該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11erとされ、音楽ジャンル「ポップ」該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11epとされ、音楽ジャンル「ジャズ」に該当するユーザ評価尤度テーブルがユーザ評価尤度テーブル11ejとされ、その他の音楽ジャンルについても、ユーザ評価尤度テーブルが定義される。以下、ユーザ評価尤度テーブル11eにおけるユーザ評価尤度テーブル11ep,11er,11ej・・・について、特に区別しない場合は「ユーザ評価尤度テーブル11ex」と称す。
 図2に戻る。RAM12は、CPU10が制御プログラム11a等のプログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するメモリであり、演奏者によって選択された音楽ジャンルが記憶される選択ジャンルメモリ12aと、推定されたパターンが記憶される選択パターンメモリ12bと、推定された遷移ルートRmが記憶される遷移ルートメモリ12cと、テンポメモリ12dと、前回鍵2aが押鍵されたタイミングから今回鍵2aが押鍵されたタイミングまでの時間(即ち、打鍵間隔)が記憶されるIOIメモリ12eと、音高尤度テーブル12fと、伴奏同期尤度テーブル12gと、IOI尤度テーブル12hと、尤度テーブル12iと、前回尤度テーブル12jとを有している。
 テンポメモリ12dは、伴奏音の1拍当たりの実時間が記憶されるメモリである。以下、伴奏音の1拍当たりの実時間を「テンポ」と称し、かかるテンポに基づいて、伴奏音が演奏される。
 音高尤度テーブル12fは、鍵2aからの演奏情報の音高と、状態Jnの音高との関係を表す尤度である、音高尤度が記憶されるデータテーブルである。本実施形態では、音高尤度として、鍵2aからの演奏情報の音高と、入力パターンテーブル11bx(図5(a))の状態Jnの音高とが完全一致している場合は「1」が設定され、部分一致している場合は「0.54」が設定され、不一致の場合は「0.4」が設定される。鍵2aからの演奏情報が入力された場合に、かかる音高尤度が全状態Jnに対して設定される。
 図7(b)には、図5(a)の音楽ジャンル「ロック」の入力パターンテーブル11brにおいて、鍵2aからの演奏情報の音高として「ド」が入力された場合を例示している。入力パターンテーブル11brにおける状態J1と状態J74との音高は「ド」なので、音高尤度テーブル12fにおける状態J1と状態J74との音高尤度には、「1」が設定される。また、入力パターンテーブル11brにおける状態J11の音高はワイルドカード音高なので、いずれの音高が入力されても完全一致したとされる。従って、音高尤度テーブル12fにおける状態J11との音高尤度にも「1」が設定される。
 入力パターンテーブル11brにおける状態J2の音高は「レ」であり、鍵2aからの演奏情報の音高の「ド」とは不一致なので、音高尤度テーブル12fにおける状態J2には「0.4」が設定される。また、入力パターンテーブル11brにおける状態J21の音高は「ド&ミ」であり、鍵2aからの演奏情報の音高の「ド」とは部分一致するので、音高尤度テーブル12fにおける状態J21には「0.54」が設定される。このように設定された音高尤度テーブル12fに基づいて、鍵2aからの演奏情報の音高に最も近い音高の状態Jnが推定できる。
 図2に戻る。伴奏同期尤度テーブル12gは、鍵2aからの演奏情報が入力された2小節におけるタイミングと、状態Jnにおける拍位置B1~B32との関係を表す尤度である、伴奏同期尤度が記憶されるデータテーブルである。図7(c)を参照して、伴奏同期尤度テーブル12gを説明する。
 図7(c)は、伴奏同期尤度テーブル12gを模式的に示した図である。図7(c)に示す通り、伴奏同期尤度テーブル12gには、各状態Jnに対する伴奏同期尤度が記憶される。本実施形態では、伴奏同期尤度は、鍵2aからの演奏情報が入力された2小節間におけるタイミングと、入力パターンテーブル11bxに記憶される状態Jnの拍位置B1~B32との差から、後述の数式2のガウス分布に基づいて算出される。
 具体的には、鍵2aからの演奏情報が入力されたタイミングとの差が小さい拍位置B1~B32の状態Jnには、大きな値の伴奏同期尤度が設定され、一方で、鍵2aからの演奏情報が入力されたタイミングとの差が大きい拍位置B1~B32の状態Jnには、小さな値の伴奏同期尤度が設定される。このように設定された伴奏同期尤度テーブル12gの伴奏同期尤度に基づき、鍵2aからの演奏情報に対する状態Jnを推定することで、鍵2aからの演奏情報が入力されたタイミングに、最も近い拍位置の状態Jnが推定できる。
 図2に戻る。IOI尤度テーブル12hは、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11dxに記憶される遷移ルートRmの拍距離との関係を表す、IOI尤度が記憶されるデータテーブルである。図8(a)を参照して、IOI尤度テーブル12hについて説明する。
 図8(a)は、IOI尤度テーブル12hを模式的に示した図である。図8(a)に示す通り、IOI尤度テーブル12hには、各遷移ルートRmに対するIOI尤度が記憶される。本実施形態では、IOI尤度は、IOIメモリ12eに記憶される打鍵間隔と、遷移ルート間尤度テーブル11dxに記憶される遷移ルートRmの拍距離とから、後述の数式1にて算出される。
 具体的には、IOIメモリ12eに記憶される打鍵間隔との差が小さい拍距離の遷移ルートRmには、大きな値のIOI尤度が設定され、一方で、IOIメモリ12eに記憶される打鍵間隔との差が大きい拍距離の遷移ルートRmには、小さな値のIOI尤度が設定される。このように設定された遷移ルートRmのIOI尤度に基づいて、該遷移ルートRmの遷移先の状態Jnを推定することで、IOIメモリ12eに記憶される打鍵間隔に最も近い拍距離とされる遷移ルートRmに基づいた状態Jnを推定できる。
 図2に戻る。尤度テーブル12iは、上述したパターン遷移尤度、打ち損ない尤度、ユーザ評価尤度、音高尤度、伴奏同期尤度およびIOI尤度を、状態Jn毎に統合した結果の尤度を記憶するデータテーブルであり、前回尤度テーブル12jは、尤度テーブル12iの記憶された状態Jn毎の尤度の、前回値を記憶するデータテーブルである。尤度テーブル12i及び前回尤度テーブル12jについて、図8(b),図8(c)を参照して説明する。
 図8(b)は、尤度テーブル12iを模式的に示した図であり、図8(c)は、前回尤度テーブル12jを模式的に示した図である。図8(b)に示す通り、尤度テーブル12iには、状態Jn毎にそれぞれ、パターン遷移尤度、打ち損ない尤度、ユーザ評価尤度、音高尤度、伴奏同期尤度およびIOI尤度を統合した結果が記憶される。これらの尤度のうち、パターン遷移尤度、打ち損ない尤度およびIOI尤度は、遷移先の状態Jnに対応する遷移ルートRmの各尤度が統合され、ユーザ評価尤度は、該当する状態Jnに対するパターンのユーザ評価尤度が統合される。また、図8(c)に示す前回尤度テーブル12jには、前回の処理で統合され、尤度テーブル12iに記憶された各状態Jnの尤度が記憶される。
 図2に戻る。音源13は、CPU10から入力される演奏情報に応じた波形データを出力する装置である。DSP14は、音源13から入力された波形データを演算処理するための演算装置である。DSP14によって、音源13から入力された波形データに対して、選択パターンメモリ12bで指定された出力パターンのエフェクトが適用される。
 DAC16は、DSP14から入力された波形データを、アナログ波形データに変換する変換装置である。アンプ17は、該DAC16から出力されたアナログ波形データを、所定の利得で増幅する増幅装置であり、スピーカ18は、アンプ17で増幅されたアナログ波形データを楽音として放音(出力)する出力装置である。
 次に、図9~図16を参照して、CPU10で実行されるメイン処理について説明する。図9は、メイン処理のフローチャートである。メイン処理は、シンセサイザ1の電源投入時に実行される。
 メイン処理では、まず演奏者によって選択された音楽ジャンルを、選択ジャンルメモリ12aへ保存する(S1)。具体的には、演奏者によるシンセサイザ1の音楽ジャンル選択ボタン(図示しない)に対する操作によって、音楽ジャンルが選択され、その音楽ジャンルの種類が選択ジャンルメモリ12aへ保存される。
 なお、音楽ジャンル毎に記憶される、入力パターンテーブル11b、出力パターンテーブル11c、遷移ルート間尤度テーブル11d又はユーザ評価尤度テーブル11eに対して、この選択ジャンルメモリ12aに記憶される音楽ジャンルに該当する入力パターンテーブル11bx、出力パターンテーブル11cx、遷移ルート間尤度テーブル11dx又はユーザ評価尤度テーブル11exが参照されるが、以下では「選択ジャンルメモリ12aに記憶されている音楽ジャンル」のことを「該当音楽ジャンル」と表現する。
 S1の処理の後、演奏者からのスタート指示があるかどうかを確認する(S2)。スタート指示は、シンセサイザ1に設けられるスタートボタン(図示しない)が選択された場合に、CPU10へ出力される。演奏者からのスタート指示がされない場合は(S2:No)、スタート指示を待機するためにS2の処理を繰り返す。
 演奏者からのスタート指示がされた場合は(S2:Yes)、該当音楽ジャンルの先頭の出力パターンに基づいて、伴奏を開始する(S3)。具体的には、該当音楽ジャンルの出力パターンテーブル11cx(図5(b))の先頭の出力パターン、即ち、パターンP1の出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色に基づいて、伴奏音の演奏が開始される。この際、選択された出力パターンに規定されているテンポがテンポメモリ12dに記憶され、該テンポに基づいて伴奏音が演奏される。
 S3の処理の後、S3の処理による、音楽ジャンルにおけるパターンP1の出力パターンに基づいた伴奏音の開始に伴い、選択パターンメモリにパターンP1を設定する(S4)。
 S4の処理の後、ユーザ評価反映処理を実行する(S5)。ここで、図10を参照して、ユーザ評価処理を説明する。
 図10は、ユーザ評価反映処理のフローチャートである。ユーザ評価反映処理はまず、ユーザ評価ボタン3(図1参照)が押されたかを確認する(S20)。ユーザ評価ボタン3が押された場合は(S20:Yes)、更に、高評価ボタン3aが押されたかを確認する(S21)。
 S21の処理において、高評価ボタン3aが押された場合は(S21:Yes)、ユーザ評価尤度テーブル11eにおける、選択パターンメモリ12bに記憶されるパターンに該当するユーザ評価尤度に、0.1を加算する(S22)。なお、S22の処理で、加算後のユーザ評価尤度が1より大きくなった場合は、ユーザ評価尤度に1が設定される。
 一方で、S21の処理において、低評価ボタン3bが押された場合は(S21:No)、ユーザ評価尤度テーブル11eにおける、選択パターンメモリ12bに記憶されるパターンに該当するユーザ評価尤度から、0.1を減算する(S23)。なお、S23の処理で、減算後のユーザ評価尤度が0より小さくなった場合は、ユーザ評価尤度に0が設定される。
 また、S20の処理においてユーザ評価ボタン3が押されていない場合は(S20:No)、S21~S23の処理をスキップする。そして、S20,S22,S23の処理の後、ユーザ評価反映処理を終了し、メイン処理へ戻る。
 図9に戻る。S5のユーザ評価反映処理の後、キー入力、即ち、鍵2aからの演奏情報が入力されたかを確認する(S6)。S6の処理において、鍵2aからの演奏情報が入力された場合は(S6:Yes)、キー入力処理を実行する(S100)。ここで、図11~図16を参照して、キー入力処理を説明する。
 図11は、キー入力処理のフローチャートである。キー入力処理はまず、設定キー50(図1,図2)の設定状態を確認し、伴奏変更設定がオンかを確認する(S101)。S101の処理において、伴奏変更設定がオンである場合は(S101:Yes)、入力パターン検索処理を実行する(S7)。ここで、図12を参照して入力パターン検索処理を説明する。
 図12は、入力パターン検索処理のフローチャートである。入力パターン検索処理では、まず、尤度算出処理を行う(S30)。図13を参照して、尤度算出処理を説明する。
 図13は、尤度算出処理のフローチャートである。尤度算出処理ではまず、設定キー50の設定状態を確認し、リズム変更設定がオンかを確認する(S110)。S110の処理において、リズム変更設定がオンの場合は(S110:Yes)、前回の鍵2aからの演奏情報の入力がされた時刻と、今回鍵2aからの演奏情報の入力がされた時刻との差から、鍵2aからの演奏情報の入力の時間差、即ち、打鍵間隔を算出し、IOIメモリ12eへ保存する(S50)。
 S50の処理の後、IOIメモリ12eの打鍵間隔と、テンポメモリ12dのテンポと、該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおける各遷移ルートRmの拍距離とから、IOI尤度を算出し、IOI尤度テーブル12hへ保存する(S51)。具体的には、IOIメモリ12eの打鍵間隔をx,テンポメモリ12dのテンポをVm,遷移ルート間尤度テーブル11dxに記憶される、ある遷移ルートRmの拍距離をΔτとすると、IOI尤度Gは数式1のガウス分布によって算出される。
Figure JPOXMLDOC01-appb-M000001
 ここで、σは数式1のガウス分布における標準偏差を表す定数であり、予め実験等によって算出された値が設定される。かかるIOI尤度Gが、全遷移ルートRmに対して算出され、その結果がIOI尤度テーブル12hに記憶される。即ち、IOI尤度Gは数式1のガウス分布に従うので、IOIメモリ12eの打鍵間隔との差が小さい拍距離を持つ遷移ルートRm程、大きな値のIOI尤度Gが設定される。
 S51の処理の後、鍵2aからの演奏情報が入力された時刻に該当する拍位置と該当音楽ジャンルの入力パターンテーブル11bxの拍位置とから伴奏同期尤度を算出し、伴奏同期尤度テーブル12gへ保存する(S52)。具体的には、鍵2aからの演奏情報が入力された時刻を、2小節単位における拍位置に変換したものをtp,該当音楽ジャンルの入力パターンテーブル11bxの拍位置τとすると、伴奏同期尤度Bは、数式2のガウス分布によって算出される。
Figure JPOXMLDOC01-appb-M000002
 ここで、ρは数式2のガウス分布における標準偏差を表す定数であり、予め実験等によって算出された値が設定される。かかる伴奏同期尤度Bが、全状態Jnに対して算出され、その結果が伴奏同期尤度テーブル12gに記憶される。即ち、伴奏同期尤度Bは数式2のガウス分布に従うので、鍵2aからの演奏情報が入力された時刻に該当する拍位置との差が小さい拍位置を持つ状態Jn程、大きな値の伴奏同期尤度Bが設定される。
 一方で、S110の処理において、リズム変更設定がオフの場合は(S110:No)、S50~S52の処理をスキップする。S52,S110の処理の後、設定キー50の設定状態を確認し、音高変更設定がオンかを確認する(S111)。
 S110の処理において、音高変更設定がオンの場合は(S111:Yes)、鍵2aからの演奏情報の音高から、状態Jn毎に音高尤度を算出し、音高尤度テーブル12fへ保存する(S53)。図7(b)で上述した通り、鍵2aからの演奏情報の音高と、該当音楽ジャンルの入力パターンテーブル11bxの各状態Jnの音高とを比較して、完全に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「1」が設定され、部分的に一致する状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.54」が設定され、不一致である状態Jnに対しては、音高尤度テーブル12fにおける該当する状態Jnの音高尤度に「0.4」が設定される。
 一方で、S111の処理において、音高変更設定がオフの場合は(S111:No)、S53の処理をスキップする。S53,S111の処理の後、尤度算出処理を終了し、図12の入力パターン検索処理へ戻る。
 図12に戻る。S30の尤度算出処理の後、状態間尤度統合処理を実行する(S31)。ここで、図14を参照して、状態間尤度統合処理を説明する。
 図14は、状態間尤度統合処理のフローチャートである。この状態間尤度統合処理では、図13の尤度算出処理で算出された各尤度から、状態Jn毎に尤度を算出する処理である。状態間尤度統合処理は、まず、カウンタ変数nに1を設定する(S60)。以下、状態間尤度統合処理における「状態Jn」の「n」はカウンタ変数nを表し、例えば、カウンタ変数nが1である場合の状態Jnは、「状態J1」を表す。
 S60の処理の後、前回尤度テーブル12jに記憶される尤度の最大値と、音高尤度テーブル12fにおける状態Jnの音高尤度と、伴奏同期尤度テーブル12gにおける状態Jnの伴奏同期尤度とから、状態Jnにおける尤度を算出し、尤度テーブル12iに保存する(S61)。具体的には、前回尤度テーブル12jに記憶される尤度の最大値をLp_M,音高尤度テーブル12fにおける状態Jnの音高尤度をPi_n,伴奏同期尤度テーブル12gにおける状態Jnの伴奏同期尤度をB_nとし、状態Jnにおける尤度L_nの対数である対数尤度log(L_n)は、数式3のViterbiアルゴリズムによって算出される。
Figure JPOXMLDOC01-appb-M000003
 ここで、αは伴奏同期尤度Bnに対するペナルティ定数、即ち、状態Jnへ遷移しない場合を考慮した定数であり、予め実験等によって算出された値が設定される。数式3により算出された対数尤度log(L_n)から対数を外した尤度L_nが、尤度テーブル12iの状態Jnに該当するメモリ領域に記憶される。
 尤度L_nは、前回尤度テーブル12jに記憶される尤度の最大値LpMと、音高尤度Pi_nと、伴奏同期尤度Bnとの積によって算出される。ここで、各尤度は0以上1以下の値を取るので、これらの積を行った場合はアンダーフローを引き起こす虞がある。そこで、尤度Lp_M,Pi_n及びB_nのそれぞれの対数を取ることで、尤度Lp_M,Pi_n及びB_nの積の計算を、尤度Lp_M,Pi_n及びB_nの対数の和の計算に変換することができる。そして、その算出結果である対数尤度log(L_n)の対数を外して尤度L_nを算出することで、アンダーフローが抑制された精度の高い尤度L_nとできる。
 S61の後、カウンタ変数nに1を加算し(S62)、加算されたカウンタ変数nが、状態Jnの数よりも大きいかを確認する(S63)。S63の処理において、カウンタ変数nが、状態Jnの数以下である場合は、S61の処理以下を繰り返す。一方で、カウンタ変数nが、状態Jnの数より大きい場合は(S63:Yes)、状態間尤度統合処理を終了して、図12の入力パターン検索処理に戻る。
 図12に戻る。S31の状態間尤度統合処理の後、遷移間尤度統合処理を実行する(S32)。図15を参照して、遷移間尤度統合処理を説明する。
 図15は、遷移間尤度統合処理のフローチャートである。遷移間尤度統合処理では、図13の尤度算出処理で算出された各尤度と、予め設定されている遷移ルート間尤度テーブル11dのパターン遷移尤度および打ち損ない尤度とから、各遷移ルートRmの遷移先の状態Jnに対する尤度を算出する処理である。
 遷移間尤度統合処理は、まず、カウンタ変数mに1を設定する(S70)。以下、遷移間尤度統合処理における「遷移ルートRm」の「m」はカウンタ変数mを表し、例えば、カウンタ変数mが1である場合の、遷移ルートRmは「遷移ルートR1」を表す。
 S70の処理の後、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの尤度と、IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度と、該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおけるパターン遷移尤度および打ち損ない尤度と、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度と、伴奏同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの伴奏同期尤度とに基づいて、尤度を算出する(S71)。
 具体的に、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの前回尤度をLp_mb,IOI尤度テーブル12hにおける遷移ルートRmのIOI尤度をI_m,該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおけるパターン遷移尤度をPs_m,該当音楽ジャンルの遷移ルート間尤度テーブル11dxにおける打ち損ない尤度をMs_mとし、音高尤度テーブル12fにおける遷移ルートRmの遷移先の状態Jnの音高尤度をPi_mfと、伴奏同期尤度テーブル12gにおける遷移ルートRmの遷移先の状態Jnの伴奏同期尤度をB_mfとし、尤度Lの対数である対数尤度log(L)は、数式4のViterbiアルゴリズムによって算出される。
Figure JPOXMLDOC01-appb-M000004
 ここで、数式4において尤度Lp_mb,I_m,Ps_m,Ms_m,Pi_mf及びB_mfそれぞれの対数の和によって対数尤度log(L)を算出するのは、上記した数式3と同様に、尤度Lに対するアンダーフローを抑制するためである。そして、かかる数式4で算出された対数尤度log(L)から対数を外すことで、尤度Lが算出される。
 S71の処理の後、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きいかを確認する(S72)。S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度よりも大きい場合は、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnに該当するメモリ領域に、S70の処理で算出された尤度Lを保存する(S73)。
 一方で、S72の処理において、S70の処理で算出された尤度Lが、尤度テーブル12iにおける遷移ルートRmの遷移先の状態Jnの尤度以下の場合は(S72:No)、S73の処理をスキップする。
 S72,S73の処理の後、カウンタ変数mに1を加算し(S74)、その後、カウンタ変数mが遷移ルートRmの数より大きいかを確認する(S75)。S75の処理において、カウンタ変数mが遷移ルートRmの数以下の場合は(S75:No)、S71の処理以下を繰り返し、カウンタ変数mが遷移ルートRmの数より大きい場合は(S75:Yes)、遷移間尤度統合処理を終了し、図12の入力パターン検索処理に戻る。
 即ち、遷移間尤度統合処理では、前回尤度テーブル12jにおける遷移ルートRmの遷移元の状態Jnの前回尤度Lp_mbを基準として、遷移ルートRmにおける遷移先の状態Jnに対する尤度が算出される。これは、状態Jnの遷移は、遷移元の状態Jnに依存するからである。即ち、前回尤度Lp_mbが大きな状態Jnが、今回における遷移元の状態Jnである確率が高いと推定され、逆に前回尤度Lp_mbが小さな状態Jnが、今回における遷移元の状態Jnである確率が低いと推定される。そこで、遷移ルートRmにおける遷移先の状態Jnに対する尤度を、前回尤度Lp_mbを基準に算出することで、状態Jn間の遷移関係を考慮に入れた精度の高い尤度とできる。
 一方で、遷移間尤度統合処理で算出される尤度は状態Jn間の遷移関係に依存されるので、例えば、伴奏の演奏が開始された直後に鍵盤2の演奏情報が入力された場合や、鍵盤2の演奏情報の入力間隔が極度に大きい場合等、遷移元の状態Jn及び遷移先の状態Jnが、該当音楽ジャンルの入力パターンテーブル11bxに該当しないケースも考えられる。かかる場合は、状態Jn間の遷移関係に基づいて遷移間尤度統合処理で算出される尤度は、いずれも小さな値となる。
 ここで、図14で上述した状態間尤度統合処理では、状態Jn毎に設定される音高尤度と伴奏同期尤度とから尤度が算出されるので、遷移ルートRmには依存しない。よって、該当音楽ジャンルの入力パターンテーブル11bxの遷移元の状態Jn及び遷移先の状態Jnに該当しないケースでは、状態間尤度統合処理で算出される状態Jnの尤度の方が、遷移間尤度統合処理で算出される状態Jnの尤度よりも大きくなる。この場合は、尤度テーブル12iには、状態間尤度統合処理で算出された尤度が記憶されたままとされる。
 従って、遷移間尤度統合処理による前回尤度Lp_mbに基づく尤度の算出と、状態間尤度統合処理によるその時点での鍵2aの演奏情報に基づく尤度とを組み合わせることで、状態Jn間に遷移関係がある場合であっても、遷移関係が乏しい場合であっても、それぞれ場合に応じて、適切に状態Jnの尤度を算出することができる。
 図12に戻る。S32の遷移間尤度統合処理の後、ユーザ評価尤度統合処理を実行する(S33)。ここで、図16を参照して、ユーザ評価尤度統合処理を説明する。
 図16は、ユーザ評価尤度統合処理のフローチャートである。ユーザ評価尤度統合処理はまず、カウンタ変数nに1を設定する(S80)。以下、ユーザ評価尤度統合処理も、図14の状態間尤度統合処理と同様に、「状態Jn」の「n」はカウンタ変数nを表す。例えば、カウンタ変数nが1である場合の状態Jnは、「状態J1」を表す。
 S80の処理の後、ユーザ評価尤度テーブル11eから、状態Jnに該当するパターンのユーザ評価尤度を取得し、尤度テーブル12iの状態Jnにおける尤度に加算する(S81)。S81の処理の後、カウンタ変数nに1を加算し(S82)、そのカウンタ変数nが状態Jnの総数よりも大きいか確認する(S83)。S83の処理において、カウンタ変数nが状態Jnの総数以下の場合は(S83:No)、S81の処理以下を繰り返す。一方で、カウンタ変数nが状態Jnの総数よりも大きい場合は(S83:Yes)、ユーザ評価尤度統合処理を終了し、図12の入力パターン検索処理へ戻る。
 ユーザ評価尤度統合処理によって、ユーザ評価尤度が尤度テーブル12iに反映される。即ち、演奏者による出力パターンに対する評価が尤度テーブル12iに反映される。従って、演奏者の評価が高い出力パターンの状態Jn程、尤度テーブル12iの尤度が大きくなるので、推定される出力パターンを演奏者の評価に応じたものとできる。
 図12に戻る。S33のユーザ評価統合処理の後、尤度テーブル12iにおける最大値の尤度を取る状態Jnを取得し、その状態Jnに該当するパターンを該当音楽ジャンルの入力パターンテーブル11bxから取得して選択パターンメモリ12bに保存する(S34)。即ち、鍵2aからの演奏情報に最尤な状態Jnが尤度テーブル12iから取得され、その状態Jnに該当するパターンが取得される。これにより、鍵2aからの演奏情報に最尤なパターンを選択することができる。
 S34の処理の後、尤度テーブル12iにおける最大値の尤度が、S32の遷移間尤度統合処理で更新されたかを確認する(S35)。即ち、S34の処理でパターンの決定に用いられた状態Jnの尤度が、図15のS71~S73の処理による前回尤度Lp_mbに基づく尤度によって、更新されたかを確認する。
 S35の処理において、尤度テーブル12iにおける最大値の尤度が、遷移間尤度統合処理で更新された場合には(S35:Yes)、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとから、今回の遷移ルートRmを取得し、遷移ルートメモリ12cへ保存する(S36)。具体的には、尤度テーブル12iにおける最大値の尤度を取る状態Jnと、前回尤度テーブル12jにおける最大値の尤度を取る状態Jnとを、該当音楽ジャンルの遷移ルート間尤度テーブル11dxの遷移先の状態Jnと遷移元の状態Jnとで検索し、これら状態Jnが一致する遷移ルートRmが、該当音楽ジャンルの遷移ルート間尤度テーブル11dxから取得され、遷移ルートメモリ12cへ保存される。
 S36の処理の後、遷移ルートメモリ12cの遷移ルートRmにおける拍距離と、IOIメモリ12eの打鍵間隔とからテンポを算出し、テンポメモリ12dに保存する(S37)。具体的には、遷移ルートメモリ12cの遷移ルートRmに一致する、該当音楽ジャンルの遷移ルート間尤度テーブル11dxの遷移ルートRmにおける拍距離をΔτ,IOIメモリ12eの打鍵間隔をx、テンポメモリ12dに記憶されている現在のテンポをVmbとすると、更新後のテンポVmは数式5によって算出される。
Figure JPOXMLDOC01-appb-M000005
 ここで、γは0<γ<1の定数であり、実験等により予め設定される値である。
 即ち、S34の処理でパターンの決定に用いられた、尤度テーブル12iの最大値の尤度がS32の遷移間尤度統合処理で更新されたので、鍵2aによる前回および今回の入力は、前回尤度テーブル12jの最大値の尤度を取る状態Jnと、尤度テーブル12iの最大値の尤度を取る状態Jnとの遷移ルートRmでの遷移であったと推定される。
 そこで、かかる遷移ルートRmの拍距離と、鍵2aによる前回および今回の入力による打鍵間隔とから、伴奏音のテンポを変更することで、実際の演奏者による鍵2aの打鍵間隔に基づいた違和感の少ない伴奏音とすることができる。
 S35の処理において、尤度テーブル12iにおける最大値の尤度が遷移間尤度統合処理で更新されなかった場合は(S35:No)、S36,S37の処理をスキップする。即ち、かかる場合、尤度テーブル12iにおける最大値の尤度は、S31の状態間統合処理によって算出されたので、最大値の尤度を取る状態Jnは遷移ルートRmには依存しないものと推定される。
 この場合に、S36の状態Jnによる遷移ルートRmの検索を行っても、一致する遷移ルートRmが取得できない虞や、仮に遷移ルートRmが取得できたとしても、誤った遷移ルートRmが取得される虞がある。このような遷移ルートRmが正しく取得できない状態で、S37によるテンポ更新処理を行っても、算出されたテンポは不正確である虞がある。そこで、尤度テーブル12iにおける最大値の尤度が遷移間尤度統合処理で更新されなかった場合に、S36,S37の処理をスキップすることで、不正確なテンポが伴奏音に適用されるのを抑制できる。
 S35,S37の処理の後、前回尤度テーブル12jへ尤度テーブル12iの値を設定し(S38)、S38の処理の後、入力パターン検索処理を終了して、図11のキー入力処理へ戻る。
 図11へ戻る。S7の入力パターン検索処理の後、選択パターンメモリ12bのパターンと、該当音楽ジャンルの出力パターンテーブル11cxとに基づいて、伴奏音を変更する(S8)。具体的には、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当するドラムパターン、ベースパターン、コード進行およびアルペジオ進行に基づいて、伴奏音が変更される。この際に、入力パターン検索処理(図12)におけるS37の処理で、テンポが更新された場合は、伴奏音のテンポも更新されたテンポメモリ12dのテンポに設定される。
 即ち、鍵2aからの演奏情報が入力される毎に、その演奏情報と最尤な状態Jnが推定され、その状態Jnに該当する出力パターンによる伴奏音やエフェクトが出力される。従って、演奏者の自由な演奏に応じて、その演奏に適合した伴奏音やエフェクトを切り替えて出力することができる。更に、かかる切り替えに対する演奏者のシンセサイザ1への操作が不要となるので、演奏者のシンセサイザ1に対するユーザビリティが向上し、演奏者は鍵2a等に対する演奏動作に、より集中することができる。
 S101の処理において、伴奏変更設定がオフの場合は(S101:No)、S7,S8の処理をスキップする。S8,S101の処理の後、鍵2aの演奏情報に基づいて、楽音を出力し(S9)、キー入力処理を終了する。この際に、鍵2aの演奏情報に基づく楽音の音色は、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当する音色とされ、かかる楽音に対して、該当音楽ジャンルの出力パターンテーブル11cxにおける、選択パターンメモリ12bのパターンに該当する音量/ベロシティ及びエフェクトが適用されて出力される。鍵2aの演奏情報に基づく楽音へのエフェクトは、音源13から出力された、かかる楽音の波形データが、DSP14で処理されることで適用される。
 また、伴奏変更設定がオンの場合は、S7の入力パターン検索処理やS8の処理によって、鍵2aからの演奏情報に応じて随時伴奏音のリズムや音高が切り替わる。一方で、伴奏変更設定がオフの場合は、S7,S8の処理がスキップされるので、鍵2aからの演奏情報が変化しても、伴奏音のリズムや音高が切り替わらない。これにより、演奏者の意志に応じて伴奏変更設定を変更することで、演奏者の演奏に適合した態様の伴奏音を出力できる。
 更に伴奏変更設定がオンの場合は、図13の尤度算出処理においてリズム変更設定および音高変更設定に基づき、算出される尤度を切り換えることでより詳細に伴奏音の態様を変更できる。
 具体的に、図13においてリズム変更設定がオンの場合は、鍵2aへの入力に対するリズム、即ち打鍵間隔や拍位置に関するIOI尤度テーブル12hや伴奏同期尤度テーブル12gが更新されるので、鍵2aの演奏情報に応じて伴奏音のリズムが切り替えることができる。一方でリズム変更設定がオフの場合は、リズムに関するIOI尤度テーブル12h及び伴奏同期尤度テーブル12gが更新されないので、鍵2aの演奏情報に関わらず伴奏音のリズムが固定される。これにより、伴奏音のリズムを一定にした状態で、S9の処理による鍵2aに応じた楽音を出力できるので、例えば、伴奏音のリズムから意図的にタイミングを外しながら鍵2aに応じた演奏ができる等、伴奏音のリズムに関して表現豊かな演奏ができる。
 また音高変更設定がオンの場合は、鍵2aの音高に関する音高尤度テーブル12fが更新されるので、鍵2aの演奏情報に応じて伴奏音のコード進行が変更され、伴奏音の音高を切り替えることができる。一方で、音高変更設定がオフの場合は、音高尤度テーブル12fが更新されないので、鍵2aの演奏情報に関わらず伴奏音のコード進行が固定される。これにより、伴奏音のコード進行を一定にした状態で、鍵2aに応じた楽音が出力できるので、例えば、鍵2aに応じた楽音でソロ演奏をする場合に、伴奏音のコード進行が変化しないことで、そのソロ演奏を際立たせることができる等、伴奏音のコード進行に関して表現豊かな演奏ができる。
 更に、これら伴奏変更設定、リズム変更設定および音高変更設定は、設定キー50(図1,図2)によって設定される。これにより、演奏中に演奏者の意志によって設定キー50を操作し、伴奏変更設定、リズム変更設定及び音高変更設定を適宜変更することで、伴奏音の態様を容易かつ素早く変更できる。
 図9に戻る。S100のキー入力処理の後は、S5以下の処理を繰り返す。
 また、S6の処理において、鍵2aからの演奏情報の入力がなかった場合は(S6:No)、更に、鍵2aからの演奏情報の入力が、6小節以上なかったかを確認する(S10)。S10の処理において、鍵2aからの演奏情報の入力が、6小節以上なかった場合(S10:Yes)、該当音楽ジャンルのエンディングパートに移行する(S11)。即ち、演奏者による演奏が6小節以上なかった場合は、演奏が終了したと推定される。かかる場合に、該当音楽ジャンルのエンディングパートに移行することで、演奏者がシンセサイザ1する操作をすることなく、エンディングパートへ移行させることができる。
 S11の処理の後、エンディングパターンの演奏中に、鍵2aからの演奏情報の入力があったかを確認する(S12)。S12の処理において、鍵2aからの演奏情報の入力があった場合は、演奏者による演奏が再開されたと推定されるので、エンディングパートから、エンディングパートに移行する直前の伴奏音に移行し(S14)、鍵2aの演奏情報に基づいて、楽音を出力する(S15)。S15の処理の後は、S5以下の処理を繰り返す。
 S12の処理において、エンディングパート演奏中に鍵2aからの演奏情報の入力がなかった場合は(S12:No)、エンディングパートの演奏終了を確認する(S13)。S13の処理において、エンディングパートの演奏が終了した場合は(S13:Yes)、演奏者による演奏が完全に終了したと推定されるので、S1以下の処理を繰り返す。一方で、S13の処理において、エンディングパートの演奏が終了していない場合は(S13:No)、S12以下の処理を繰り返す。
 以上、上記実施形態に基づき説明したが、種々の改良変更が可能であることは容易に推察できるものである。
 上記実施形態では、自動演奏装置としてシンセサイザ1を例示した。しかし、必ずしもこれに限られるものではなく、電子オルガンや電子ピアノ等、演奏者の演奏による楽音と共に、伴奏音やエフェクトを出力する電子楽器に適用しても良い。
 上記実施形態では、出力パターンとして、ドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色が設定された。しかし、必ずしもこれに限られるものではなく、ドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色以外の、音楽表現、例えば、ドラム、ベース以外のリズムパターンや、人間の歌声等の音声データを出力パターンに追加する構成としても良い。
 上記実施形態では、出力パターンの切り替えにおいては、出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色の全てを切り替える構成とした。しかし、必ずしもこれに限られるものではなく、出力パターンのドラムパターン、ベースパターン、コード進行、アルペジオ進行、エフェクト、音量/ベロシティ及び音色のうち一部のみ(例えば、ドラムパターン及びコード進行のみ)を切り替える構成としても良い。
 更に、各出力パターンにおいて、切り替える対象となる出力パターンの要素を予め設定しておき、出力パターンの切り替えにおいて、その設定された出力パターンのみ切り替える構成としても良い。これにより、演奏者の好みに応じた出力パターンとすることができる。
 上記実施形態では、伴奏変更設定、リズム変更設定および音高変更設定の3つのモードを設けた。しかし、これに限られるものではなく、3つのモードから1又は2のモードを省略しても良い。この場合、伴奏変更設定を省略する場合は、図11のキー入力処理からS101の処理を省略すれば良いし、リズム変更設定を省略する場合は、図13の尤度算出処理からS110の処理を省略すれば良いし、音高変更設定を省略する場合は、図13の尤度算出処理からS111の処理を省略すれば良い。
 上記実施形態では、図13のS52,S53の処理において、音高尤度および伴奏同期尤度を全状態Jnについて算出する構成とした。しかし、必ずしもこれに限られるものではなく、音高尤度および伴奏同期尤度を、一部の状態Jnについて算出する構成としても良い。例えば、前回尤度テーブル12jにおいて最大値の尤度を取る状態Jnを遷移元の状態Jnとした遷移ルートRmにおいて、遷移先の状態Jnとされる状態Jnのみ、音高尤度および伴奏同期尤度を算出する構成としても良い。
 上記実施形態では、各出力パターンにおける伴奏音の演奏時間は、4分の4拍子における2小節分の長さとした。しかし、必ずしもこれに限られるものではなく、伴奏音の演奏時間は1小節分でも良いし、3小節分以上でも良い。また、伴奏音における1小節当たりの拍子は4分の4拍子に限られるものではなく、4分の3拍子や8分の6拍子等、他の拍子を適宜用いる構成としても良い。
 上記実施形態では、同一のパターン間における状態Jnへの遷移ルートとして、2つ前の状態Jnから遷移する音飛びによる遷移ルートを設定する構成とした。しかし、必ずしもこれに限られるものではなく、音飛びによる遷移ルートとして、同一のパターン間における3つ以上前の状態Jnから遷移する遷移ルートを含める構成としても良い。また、同一のパターン間における状態Jnへの遷移ルートから、音飛びによる遷移ルートを省略する構成としても良い。
 また、上記実施形態では、別パターン間における状態Jnへの遷移ルートとして、その遷移元である別パターンの状態Jnが、遷移先の状態Jnの拍位置の直前のものである遷移ルートを設定する構成とした。しかし、必ずしもこれに限られるものではなく、別パターンの間における状態Jnへの遷移ルートに対しても、遷移元である別パターンにおける2つ以上前の状態Jnから遷移する、音飛びによる遷移ルートも設定する構成としても良い。
 上記実施形態では、IOI尤度Gを数式1の、また、伴奏同期尤度Bを数式2のガウス分布にそれぞれ従う構成とした。しかし、必ずしもこれに限られるものではなく、IOI尤度Gをラプラス分布などの他の確率分布関数に従う構成としても良い。
 上記実施形態では、図14のS61の処理において、数式3で算出された対数尤度log(L_n)から対数を外した尤度L_nが、尤度テーブル12iに記憶され、また、図15のS71~S73の処理において、数式4で算出された対数尤度log(L)から、対数を外した尤度Lが、尤度テーブル12iに記憶される構成とした。しかし、必ずしもこれに限られるものではなく、数式3,4で算出された対数尤度log(L_n)又は対数尤度log(L)が、尤度テーブル12iに記憶される構成とし、尤度テーブル12iに記憶される対数尤度log(L_n)又は対数尤度log(L)に基づいて、図12のS34の処理におけるパターンの選択およびS35~S37の処理におけるテンポの更新を行う構成としても良い。
 上記実施形態では、鍵盤2からの演奏情報が入力される毎に、状態Jnおよびパターンの推定と、推定されたパターンへの出力パターンの切り替えを行う構成とした。しかし、必ずしもこれに限られるものではなく、一定時間(例えば、2小節や4小節)内の演奏情報に基づいて、状態Jnおよびパターンの推定と、推定されたパターンへの出力パターンの切り替えとを行う構成としても良い。これにより、少なくとも一定時間毎に、出力パターンの切り替えが行われるので、出力パターン、即ち、伴奏者やエフェクトが頻繁に切り替わる事態が抑制され、演奏者や聴衆にとって、違和感のない伴奏やエフェクトとすることができる。
 上記実施形態では、演奏情報を鍵盤2からの入力される構成とした。しかしながらこれに代えて、外部のMIDI規格の鍵盤キーボードをシンセサイザ1に接続し、かかる鍵盤キーボードから演奏情報を入力する構成としても良い。
 上記実施形態では、伴奏音や楽音をシンセサイザ1に設けられた音源13、DSP14、DAC16、アンプ17及びスピーカ18から出力する構成とした。しかしながらこれに代えて、MIDI規格の音源装置をシンセサイザ1に接続し、かかる音源装置からシンセサイザ1の伴奏音や楽音を出力する構成としても良い。
 上記実施形態では、伴奏音やエフェクトに対する演奏者の評価を、ユーザ評価ボタン3によって行う構成とした。しかしながらこれに代えて、シンセサイザ1に演奏者の生体情報を検知するセンサ、例えば、演奏者の脳波を検出する脳波センサ(脳波検出手段の一例)や、演奏者の脳血流を検出する脳血流センサ等を接続し、該生体情報に基づいて伴奏音やエフェクトに対する演奏者の印象を推定することで、演奏者の評価を行う構成としても良い。
 また、シンセサイザ1に演奏者の動作を検出する動作センサ(動作検出手段の一例)を接続し、該動作センサから検出された、演奏者の特定の身振りや手振り等に応じて、演奏者の評価を行う構成としても良い。また、シンセサイザ1に演奏者の表情を検出する表情センサ(表情検出手段の一例)を接続し、該表情センサから検出された、演奏者の特定の表情、例えば、笑顔や不満げな表情等、演奏者にとって良い印象や悪い印象を示す表情や、表情の変化等に応じて、演奏者の評価を行う構成としても良い。また、演奏者の姿勢を検出する姿勢センサ(姿勢検出手段の一例)を接続し、該姿勢センサから検出された、演奏者の特定の姿勢(前傾、後傾)や姿勢の変化に応じて、演奏者の評価を行う構成としても良い。
 なお、動作センサ、表情センサ又は姿勢センサの代わりに、シンセサイザ1に演奏者の画像を取得するカメラを接続し、該カメラから取得された画像を解析することで演奏者の動作や表情、姿勢を検出して演奏者の評価を行う構成としても良い。これら生体情報を検知するセンサ、動作センサ、表情センサ、姿勢センサ又はカメラからの検出結果に応じて、演奏者の評価を行うことにより、演奏者はユーザ評価ボタン3を操作することなく、伴奏音やエフェクトに対して評価することができるので、シンセサイザ1に対する操作性を向上させることができる。
 上記実施形態では、ユーザ評価尤度を伴奏音やエフェクトに対する演奏者の評価として構成とした。しかし、必ずしもこれに限られるものではなく、ユーザ評価尤度を、伴奏音やエフェクトに対する聴衆の評価とする構成としても良いし、伴奏音やエフェクトに対する演奏者および聴衆の評価としても良い。かかる場合、聴衆に対して、伴奏音やエフェクトに対する高評価または低評価をシンセサイザ1に送信するためのリモコン装置を持たせ、リモコン装置からの高評価および低評価の評価数に基づいて、ユーザ評価尤度を算出する構成とすれば良い。また、シンセサイザ1にマイクを配設し、聴衆からの歓声の大きさに基づいて、ユーザ評価尤度を算出する構成としても良い。
 上記実施形態では、制御プログラム11aをシンセサイザ1のフラッシュROM11に記憶し、シンセサイザ1上で動作する構成とした。しかし、必ずしもこれに限られるものではなく、PC(パーソナル・コンピュータ)や携帯電話、スマートフォンやタブレット端末等の他のコンピュータ上で制御プログラム11aを動作させる構成としても良い。この場合、シンセサイザ1の鍵盤2の代わりに、PC等に有線または無線で接続されたMIDI規格の鍵盤キーボードや文字入力用のキーボードから、演奏情報を入力する構成としても良いし、PC等の表示装置に表示されたソフトウェアキーボードから、演奏情報を入力する構成としても良い。
 上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。
 1       シンセサイザ(自動演奏装置)
 2       鍵盤(入力手段)
 3       ユーザ評価ボタン(評価入力手段)
 11a     制御プログラム(自動演奏プログラム)
 11b     入力パターンテーブル(記憶手段の一部)
 11c     出力パターンテーブル(記憶手段の一部)
 50      設定キー(設定手段)
 S4      演奏手段
 S8      演奏手段、切替手段
 S34     選択手段
 S51~S53 尤度算出手段
 

Claims (7)

  1.  複数の演奏パターンを記憶する記憶手段と、
     その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏手段と、
     演奏者の演奏操作を受け付ける入力装置から演奏情報を入力する入力手段と、
     前記演奏手段による演奏の切り替えを行うかのモードを設定する設定手段と、
     その設定手段により前記演奏手段による演奏の切り替えを行うモードが設定されている場合に、前記入力手段に入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択手段と、
     前記演奏手段により演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択手段により選択された演奏パターンの音楽表現に切り替える切替手段とを備えていることを特徴とする自動演奏装置。
  2.  前記選択手段は、前記設定手段により前記演奏手段による演奏の切り替えを行うモードが設定されている場合に、前記入力手段へ入力された演奏情報に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出する尤度算出手段を備え、
     その尤度算出手段により算出された尤度に基づいて、前記記憶手段に記憶される複数の演奏パターンのうち1の演奏パターンを最尤推定することを特徴とする請求項1記載の自動演奏装置。
  3.  前記尤度算出手段は、前記設定手段により前記演奏手段による演奏の音高の切り替えを行うモードが設定されている場合に、前記入力手段へ入力された演奏情報の音高に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出することを特徴とする請求項2記載の自動演奏装置。
  4.  前記尤度算出手段は、前記設定手段により前記演奏手段による演奏のリズムの切り替えを行うモードが設定されている場合に、前記入力手段へ入力された演奏情報の拍位置に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、それぞれ尤度を算出することを特徴とする請求項2又は3に記載の自動演奏装置。
  5.  前記尤度算出手段は、前記設定手段により前記演奏手段による演奏のリズムの切り替えを行うモードが設定されている場合に、前記入力手段へ入力された前回の演奏情報と今回の演奏情報との入力間隔に基づいて、前記記憶手段に記憶される複数の演奏パターンを構成する各楽音の全て又は一部について、1の楽音の次に他の楽音が発せられる尤度をそれぞれ算出することを特徴とする請求項2から4のいずれかに記載の自動演奏装置。
  6.  前記設定手段は、その設定状態を前記演奏者による演奏中に変更可能に構成されていることを特徴とする請求項1から5のいずれかに記載の自動演奏装置。
  7.  記憶部を備えたコンピュータに、自動演奏を実行させる自動演奏プログラムにおいて、
     前記記憶部を、複数の演奏パターンを記憶する記憶手段として機能させ、
     その記憶手段に記憶される演奏パターンに基づいて演奏を行う演奏ステップと、
     演奏者の演奏操作を受け付ける入力装置から演奏情報を入力する入力ステップと、
     前記演奏ステップによる演奏の切り替えを行うかのモードを設定する設定ステップと、
     その設定ステップにより前記演奏ステップによる演奏の切り替えを行うモードが設定されている場合に、前記入力ステップにより入力された演奏情報に基づいて、前記記憶手段に記憶された複数の演奏パターンのうち最尤推定された演奏パターンを選択する選択ステップと、
     前記演奏ステップにより演奏されている演奏パターンの音楽表現の少なくとも一つを、前記選択ステップにより選択された演奏パターンの音楽表現に切り替える切替ステップと、を前記コンピュータに実現させることを特徴とする自動演奏プログラム。
PCT/JP2019/034874 2019-09-04 2019-09-04 自動演奏装置および自動演奏プログラム WO2021044563A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19943869.8A EP4027329B1 (en) 2019-09-04 2019-09-04 Automatic musical performance device, automatic musical performance program and method
US17/637,077 US20220301527A1 (en) 2019-09-04 2019-09-04 Automatic musical performance device, non-transitory computer readable medium, and automatic musical performance method
PCT/JP2019/034874 WO2021044563A1 (ja) 2019-09-04 2019-09-04 自動演奏装置および自動演奏プログラム
JP2021543877A JP7190056B2 (ja) 2019-09-04 2019-09-04 自動演奏装置および自動演奏プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/034874 WO2021044563A1 (ja) 2019-09-04 2019-09-04 自動演奏装置および自動演奏プログラム

Publications (1)

Publication Number Publication Date
WO2021044563A1 true WO2021044563A1 (ja) 2021-03-11

Family

ID=74852710

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034874 WO2021044563A1 (ja) 2019-09-04 2019-09-04 自動演奏装置および自動演奏プログラム

Country Status (4)

Country Link
US (1) US20220301527A1 (ja)
EP (1) EP4027329B1 (ja)
JP (1) JP7190056B2 (ja)
WO (1) WO2021044563A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044562A1 (ja) * 2019-09-04 2021-03-11 ローランド株式会社 アルペジエータおよびその機能を備えたプログラム
JP7402834B2 (ja) 2021-01-11 2023-12-21 理研軽金属工業株式会社 自転車用携帯駐輪装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133661A (ja) * 1996-10-25 1998-05-22 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JP2001290474A (ja) * 2000-04-06 2001-10-19 Japan Science & Technology Corp 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体
JP2007241181A (ja) 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2010538335A (ja) * 2007-09-07 2010-12-09 マイクロソフト コーポレーション 音声メロディ向けの自動伴奏
WO2012074070A1 (ja) * 2010-12-01 2012-06-07 ヤマハ株式会社 リズムパターンの類似度に基づく楽音データの検索
JP2012234167A (ja) 2011-04-21 2012-11-29 Yamaha Corp 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
JP2014044386A (ja) * 2011-12-09 2014-03-13 Yamaha Corp 音データ処理装置及びプログラム
JP2015125344A (ja) * 2013-12-27 2015-07-06 カシオ計算機株式会社 電子楽器、電子楽器の制御方法およびプログラム
JP2018096439A (ja) 2016-12-13 2018-06-21 Nok株式会社 密封装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1274069B1 (en) * 2001-06-08 2013-01-23 Sony France S.A. Automatic music continuation method and device
JP6606844B2 (ja) * 2015-03-31 2019-11-20 カシオ計算機株式会社 ジャンル選択装置、ジャンル選択方法、プログラムおよび電子楽器
JP2019200390A (ja) * 2018-05-18 2019-11-21 ローランド株式会社 自動演奏装置および自動演奏プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133661A (ja) * 1996-10-25 1998-05-22 Kawai Musical Instr Mfg Co Ltd 自動演奏装置
JP2001290474A (ja) * 2000-04-06 2001-10-19 Japan Science & Technology Corp 音楽情報解析装置、音楽情報解析方法及び音楽情報解析プログラムを記録した記録媒体
JP2007241181A (ja) 2006-03-13 2007-09-20 Univ Of Tokyo 自動伴奏システム及び楽譜追跡システム
JP2010538335A (ja) * 2007-09-07 2010-12-09 マイクロソフト コーポレーション 音声メロディ向けの自動伴奏
WO2012074070A1 (ja) * 2010-12-01 2012-06-07 ヤマハ株式会社 リズムパターンの類似度に基づく楽音データの検索
JP2012234167A (ja) 2011-04-21 2012-11-29 Yamaha Corp 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
JP2014044386A (ja) * 2011-12-09 2014-03-13 Yamaha Corp 音データ処理装置及びプログラム
JP2015125344A (ja) * 2013-12-27 2015-07-06 カシオ計算機株式会社 電子楽器、電子楽器の制御方法およびプログラム
JP2018096439A (ja) 2016-12-13 2018-06-21 Nok株式会社 密封装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4027329A4

Also Published As

Publication number Publication date
US20220301527A1 (en) 2022-09-22
JPWO2021044563A1 (ja) 2021-03-11
EP4027329A4 (en) 2023-05-10
EP4027329A1 (en) 2022-07-13
EP4027329B1 (en) 2024-04-10
JP7190056B2 (ja) 2022-12-14

Similar Documents

Publication Publication Date Title
EP3570271B1 (en) Automatic performance device and automatic performance method
JP5605040B2 (ja) 電子楽器
WO2021044563A1 (ja) 自動演奏装置および自動演奏プログラム
JP5040927B2 (ja) 演奏教習装置及びプログラム
US11908440B2 (en) Arpeggiator, recording medium and method of making arpeggio
JP7190054B2 (ja) アルペジエータおよびその機能を備えたプログラム
JP7190053B2 (ja) アルペジエータおよびその機能を備えたプログラム
US7838754B2 (en) Performance system, controller used therefor, and program
WO2021044560A1 (ja) アルペジエータおよびその機能を備えたプログラム
JP2007078724A (ja) 電子楽器
JP4259532B2 (ja) 演奏制御装置、およびプログラム
JP2010117419A (ja) 電子楽器
EP4207182A1 (en) Automatic performance apparatus, automatic performance method, and automatic performance program
US20240233693A9 (en) Automatic performance device, non-transitory computer-readable medium, and automatic performance method
JP5692275B2 (ja) 電子楽器
US20240135907A1 (en) Automatic performance device, non-transitory computer-readable medium, and automatic performance method
JP7414048B2 (ja) プログラム、情報処理装置、演奏評価システム及び演奏評価方法
US20230035440A1 (en) Electronic device, electronic musical instrument, and method therefor
JP2011123108A (ja) 電子楽器
JP4218688B2 (ja) 合奏システム、このシステムに用いるコントローラ及びプログラム
JP2021043235A (ja) 電子鍵盤楽器および演奏プログラム
JPH07181966A (ja) 電子楽器のデータ設定装置
JP2000029466A (ja) 電子鍵盤楽器
JP2008097047A (ja) 自動伴奏装置
JP2004271564A (ja) 自動伴奏装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19943869

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543877

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019943869

Country of ref document: EP

Effective date: 20220404