WO2012132856A1 - 伴奏データ生成装置 - Google Patents

伴奏データ生成装置 Download PDF

Info

Publication number
WO2012132856A1
WO2012132856A1 PCT/JP2012/056267 JP2012056267W WO2012132856A1 WO 2012132856 A1 WO2012132856 A1 WO 2012132856A1 JP 2012056267 W JP2012056267 W JP 2012056267W WO 2012132856 A1 WO2012132856 A1 WO 2012132856A1
Authority
WO
WIPO (PCT)
Prior art keywords
chord
waveform data
phrase waveform
pitch
phrase
Prior art date
Application number
PCT/JP2012/056267
Other languages
English (en)
French (fr)
Inventor
岡崎 雅嗣
柿下 正尋
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011067937A external-priority patent/JP5626062B2/ja
Priority claimed from JP2011067935A external-priority patent/JP5821229B2/ja
Priority claimed from JP2011067936A external-priority patent/JP5598397B2/ja
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to US13/982,476 priority Critical patent/US9040802B2/en
Priority to EP17162770.6A priority patent/EP3206202B1/en
Priority to EP12765940.7A priority patent/EP2690620B1/en
Priority to CN201280015176.3A priority patent/CN103443849B/zh
Publication of WO2012132856A1 publication Critical patent/WO2012132856A1/ja
Priority to US14/691,094 priority patent/US9536508B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/26Selecting circuits for automatically producing a series of tones
    • G10H1/28Selecting circuits for automatically producing a series of tones to produce arpeggios
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent

Definitions

  • the present invention relates to an accompaniment data generation device and an accompaniment data generation program for generating waveform data of chord sound phrases.
  • accompaniment style data by automatic performance data such as MIDI format corresponding to various styles (genres) of music is stored, and accompaniment to the user's performance is performed based on the accompaniment style data selected by the user (player).
  • An automatic accompaniment device for giving is known (see, for example, Japanese Patent No. 2900753).
  • the pitch of the accompaniment style data based on a predetermined chord (chord) such as CMaj is matched with the chord (chord) information detected from the user's performance. Conversion is done.
  • an arpeggio performance device that stores arpeggio pattern data as phrase waveform data, adjusts the pitch and tempo to match the user's performance input, and generates automatic accompaniment data is known (for example, Patent No. 1). No. 4274272).
  • An object of the present invention is to provide an accompaniment data generation device capable of generating automatic accompaniment data using phrase waveform data including chords.
  • the constitutional feature of the present invention is that a storage means (15) for storing phrase waveform data relating to a code specified by a combination of a code type and a code route, and a code type and a code route are specified.
  • Chord sound phrase generating means SA10, SA21 to SA23, SA31, SA32, SB2 to SB8, SC2 to SC26
  • the phrase waveform data related to the chord is composed of phrase waveform data of chord sounds mixed with chord constituent sounds.
  • the storage means stores the chord sound phrase waveform data for each chord type, and the chord sound phrase generation means is identified by the chord information acquired by the chord information acquisition means.
  • a reading means (SA10, SA21, SA22) for reading the chord sound phrase waveform data corresponding to the chord sound, the chord root specified by the acquired chord information, and the read chord sound phrase waveform data.
  • Pitch shift means (SA23) for generating the waveform data of the chord tone phrase by pitch shifting the phrase waveform data of the read chord tone according to the pitch difference from the pitch of the chord root tone to be constituted may be used. .
  • the storage means stores a plurality of chord sound phrase waveform data having a plurality of different pitches as chord roots for each chord type, and the chord sound phrase generating means is controlled by the chord information acquiring means.
  • the chord phrase read out according to the pitch difference from Shape data may be constructed out with pitch shifting means (SA 23) for generating waveform data of the chord sound phrases with pitch shifting.
  • the storage means stores the chord sound phrase waveform data for each chord type and chord root, and the chord sound phrase generating means is specified by the chord information acquired by the chord information acquiring means.
  • Chord sound phrase waveform data corresponding to the chord type and chord root may be read from the storage means to generate chord sound phrase waveform data (SA10, SA21 to SA23).
  • basic phrase waveform data that is common to a plurality of chord types and includes at least the phrase waveform data of the chord root sound, and the sound of the chord root sound that constitutes the basic phrase waveform data
  • the chord sound phrase generating means reads out the basic phrase waveform data and the selected phrase waveform data from the storage means and combines them to generate chord sound phrase waveform data.
  • the chord sound phrase generation means reads the basic phrase waveform data from the storage means, and specifies the chord root specified by the chord information acquired by the chord information acquisition means, and the read basic phrase waveform data.
  • First reading means SA10, SA31, SB2, SB4, SB5 for pitch-shifting the read basic phrase waveform data in accordance with a pitch difference with the pitch of the chord root sound to constitute, the acquired
  • the selected phrase waveform data corresponding to the chord type specified by the chord information is read out from the storage means, the chord root specified by the acquired chord information, and the chord root sound constituting the read basic phrase waveform data
  • the read selection Second reading means (SA10, SA31, SB2, SB4, SB6 to SB8) for pitch shifting the lasing waveform data, the basic phrase waveform data that has been read and pitch shifted, and the selected phrase waveform data that has been read and pitch shifted, and And synthesizing means (SA31, SB5, SB8) for generating chord sound phrase waveform data.
  • chord sound phrase generating means is specified by the first reading means (SA10, SA31, SB2, SB5) for reading the basic phrase waveform data from the storage means and the chord information acquired by the chord information acquiring means.
  • Second reading means (SA10, SA31, SB2, SB6 to SB8) for reading the selected phrase waveform data corresponding to the code type to be read from the storage means, the read basic phrase waveform data, and the read selected phrase waveform Data, and the synthesized phrase waveform data is converted into a pitch difference between the chord root specified by the acquired chord information and the pitch of the chord root sound constituting the read basic phrase waveform data.
  • the chord sound phrase waveform data Synthesizing means for generating a (SA31, SB4, SB5, SB8) the de may be constructed.
  • the storage means stores a plurality of sets of the basic phrase waveform data and the plurality of phrase waveform data having different chord roots
  • the chord sound phrase generating means includes the chord acquired by the chord information acquiring means.
  • a selection means (SB2) for selecting a set of the basic phrase waveform data and a plurality of phrase waveform data having a pitch that is the smallest pitch difference from the chord root specified by the information; and the selected 1 A set of the basic phrase waveform data and basic phrase waveform data belonging to a plurality of phrase waveform data are read from the storage means, and a code route specified by the acquired code information and the read basic phrase waveform data are configured According to the pitch difference from the chord root pitch, the read out First phrase reading means (SA10, SA31, SB2, SB4, SB5) for pitch-shifting the phrase waveform data, and the selected phrase waveform data belonging to the selected set of the basic phrase waveform data and the plurality of phrase waveform data.
  • SA10, SA31, SB2, SB4, SB5 for pitch-shifting the phrase waveform
  • the selected phrase waveform data corresponding to the code type specified by the acquired code information is read from the storage means, the code root specified by the acquired code information, and the read basic phrase waveform data
  • a second reading means (SA10, SA31, SB2, SB4, SB6 to SB8) for pitch-shifting the read selected phrase waveform data in accordance with a pitch difference from the pitch of the chord root sound constituting Basic phrase waveform data read and pitch shifted
  • synthesizing the selected phrase waveform data pitch shifting reads, synthesizing means for generating a waveform data of chord tones phrase (SA31, SB5, SB8) the de may be constructed.
  • the storage means stores a plurality of sets of the basic phrase waveform data and the plurality of phrase waveform data having different chord roots
  • the chord sound phrase generating means includes the chord acquired by the chord information acquiring means.
  • a selection means (SB2) for selecting a set of the basic phrase waveform data and a plurality of phrase waveform data having a pitch that is the smallest pitch difference from the chord root specified by the information; and the selected 1
  • a first reading means SA10, SA31, SB2, SB5
  • the second reading means and the second reading means (SA10, SA31, SB2, SB6 to SB8) for reading the selected phrase waveform data corresponding to the code type specified by the acquired code information from the storage means
  • the read basic phrase waveform data and the read selected phrase waveform data, and the synthesized phrase waveform data
  • the storage means stores the basic phrase waveform data and a plurality of selected phrase waveform data for each chord root, and specifies the chord sound phrase generation means by the chord information acquired by the chord information acquisition means.
  • first read means SA10, SA31, SB2, SB5
  • Second read means SA10, SA31, SB2, SB6 to SB8
  • SA10, SA31, SB2, SB6 to SB8 for reading the selected phrase waveform data read from the storage means
  • the read basic phrase waveform data, and the read selected phrase waveform data are synthesized.
  • Generate waveform data for chord sound phrases That combining means (SA31, SB5, SB8) the de may be constructed.
  • the basic phrase waveform data is a phrase waveform data of a musical sound in which a chord root sound in a chord constituent sound and a chord constituent sound common to a plurality of chord types different from the chord root sound are mixed.
  • the phrase waveform data relating to the chord the basic phrase waveform data that is the phrase waveform data of the chord root sound, and the sound of the chord root sound that constitutes the basic phrase waveform data
  • a chord constituent sound having a chord root as a high, and corresponding to a plurality of chord types and different from a chord root sound constituting the basic phrase waveform data.
  • the chord tone phrase generating means reads out the basic phrase waveform data and the selected phrase waveform data from the storage means.
  • the read selected phrase waveform data is read by the code information acquisition means.
  • the pitch data of the chord sound phrase is synthesized by synthesizing the read basic phrase waveform data and the read and pitch-shifted selected phrase waveform data according to the chord type specified by the chord information acquired Should be generated.
  • chord sound phrase generation means reads the basic phrase waveform data from the storage means, and constitutes the chord root specified by the chord information acquired by the chord information acquisition means and the read basic phrase waveform data First read means (SA10, SA31, SC2, SC4, SC5) for pitch-shifting the read basic phrase waveform data according to the pitch difference from the pitch of the chord root sound to be performed, and the acquired chord
  • the selected phrase waveform data is read from the storage means according to the chord type specified by the information, and the chord root sound constituting the chord root specified by the acquired chord information and the read basic phrase waveform data
  • the acquired chord information The selected phrase waveform data read out in accordance with the pitch difference between the pitches of the chord constituent sounds corresponding to the chord type specified by and the pitches of the chord constituent sounds constituting the read selection phrase waveform data.
  • Second reading means for shifting the pitch (SA10, SA31, SC2, SC4, SC6 to SC12, SC13 to SC19, SC20 to SC26), the basic phrase waveform data that has been read and pitch shifted, and the selection that has been read and pitch shifted You may comprise by the synthetic
  • chord sound phrase generating means is specified by the chord information acquired by the first reading means (SA10, SA31, SC2, SC5) for reading the basic phrase waveform data from the storage means and the chord information acquiring means.
  • the selected phrase waveform data is read from the storage means according to the chord type to be performed, the pitch of the chord constituting sound corresponding to the chord type specified by the chord information acquired by the chord information acquisition means, and the read Second reading means (SA10, SA31, SC6 to SC12, SC13 to SC19) for pitch-shifting the read selection phrase waveform data in accordance with the pitch difference with the pitch of the chord constituent sounds constituting the selected phrase waveform data. , SC20 to SC26) and the read basic frame.
  • the selected phrase waveform data that has been read and pitch-shifted, and the synthesized phrase waveform data is identified by the code route acquired by the code information acquired by the code information acquisition means, and the readout Synthesizing means (SC4, SC5, SC12, SC19, SC26) for generating waveform data of chord tone phrases by pitch shifting in accordance with the pitch difference with the pitch of the chord root tone constituting the basic phrase waveform data.
  • the readout Synthesizing means SC4, SC5, SC12, SC19, SC26
  • the storage means stores a plurality of sets of the basic phrase waveform data and the plurality of phrase waveform data having different chord roots, and the code sound waveform data generation means is acquired by the code information acquisition means.
  • a selection means SC2 for selecting a set of the basic phrase waveform data and a plurality of phrase waveform data having a pitch that has the smallest pitch difference from the chord root specified by the chord information;
  • a set of basic phrase waveform data and basic phrase waveform data belonging to a plurality of phrase waveform data are read from the storage means, and a code route specified by the acquired code information and the read basic phrase waveform data are configured.
  • the pitch difference with the pitch of the chord root sound to be read First phrase reading means (SA10, SA31, SC2, SC4, SC5) for pitch-shifting the phrase waveform data, and the selected phrase waveform data belonging to the selected set of the basic phrase waveform data and the plurality of phrase waveform data. Then, the selected phrase waveform data is read from the storage means according to the code type specified by the acquired code information, and the code root specified by the acquired code information and the read basic phrase waveform data are In addition to the pitch difference from the chord root sound to be configured, the pitch of the chord constituent sound corresponding to the chord type specified by the acquired chord information and the read selection phrase waveform data are configured According to the pitch difference from the pitch of the chord constituent sound, the selected selection frame is read out.
  • Second reading means (SA10, SA31, SC2, SC4, SC6 to SC12, SC13 to SC19, SC20 to SC26) for pitch shifting the waveform data, the basic phrase waveform data that has been read and pitch shifted, and the reading You may comprise by the synthetic
  • the storage unit stores a plurality of sets of the basic phrase waveform data and the plurality of phrase waveform data having different code roots, and the code sound waveform data generation unit is acquired by the code information acquisition unit.
  • a selection means (SC2) for selecting a set of the basic phrase waveform data and a plurality of phrase waveform data having a pitch that has the smallest pitch difference from the chord root specified by the chord information;
  • a first reading means (SA10, SA31, SC2, SC5) for reading out one set of the basic phrase waveform data and basic phrase waveform data belonging to a plurality of phrase waveform data from the storage means; and the selected one set of the basic sets Phrase waveform data and selected phrase waveform data belonging to multiple phrase waveform data
  • the selected phrase waveform data is read from the storage means according to the chord type specified by the acquired chord information, and the chord constituent sound corresponding to the chord type specified by the acquired chord information is read
  • Second reading means (SA10, SA31, SA) for pitch-shifting the read selected phrase waveform data in accordance with the
  • SC6 to SC12, SC13 to SC19, SC20 to SC26), the read basic phrase waveform data, and the selected phrase waveform data that has been read and pitch-shifted are synthesized, and the synthesized phrase waveform data is obtained as the code information.
  • the code specified by the code information obtained by the means A synthesizing means SC4, SC5, S12, S12, SC12, SC12, SC12, SC12, S12, S12, S12, S12, S12, SA32).
  • the storage means stores the basic phrase waveform data and a plurality of selected phrase waveform data for each chord root, and specifies the chord sound phrase generation means by the chord information acquired by the chord information acquisition means.
  • First phrase reading means (SA10, SA31, SC2, SC5) for reading basic phrase waveform data corresponding to the code route to be read from the storage means, and according to the code route and code type specified by the acquired code information
  • the selected phrase waveform data is read out from the storage means, and the pitch of the chord constituent sound corresponding to the chord type specified by the acquired chord information and the chord constituent sounds constituting the read out select phrase waveform data
  • the read selection Second reading means (SA10, SA31, SC6 to SC12, SC13 to SC19, SC20 to SC26) for pitch shifting the lasing waveform data, the read basic phrase waveform data, and the selected phrase waveform data that has been read and pitch shifted.
  • a synthesis means (SC5, SC12, SC19, SC26) that generates waveform data of chord sound phrases.
  • the selected phrase waveform data is phrase waveform data corresponding to at least the third and fifth sounds in the chord constituent sounds.
  • phrase waveform data may be recorded with musical sounds corresponding to the performance of accompaniment phrases for a predetermined number of measures.
  • an accompaniment data generation device capable of generating automatic accompaniment data using phrase waveform data including chords.
  • the present invention is not limited to the invention of the accompaniment data generation device, but can also be implemented as an invention of an accompaniment data generation method and an accompaniment data generation program.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of an accompaniment data generation device according to the first to third embodiments of the present invention.
  • FIG. 2 is a conceptual diagram showing an example of the configuration of automatic accompaniment data according to the first embodiment of the present invention.
  • FIG. 3 is a conceptual diagram illustrating an example of a code type table according to the first embodiment of the present invention.
  • FIG. 4 is a conceptual diagram showing another example of the configuration of automatic accompaniment data according to the first embodiment of the present invention.
  • FIG. 5A is a part of a flowchart showing the main processing according to the first embodiment of the present invention.
  • FIG. 5B is another part of the flowchart showing the main processing according to the first embodiment of the present invention.
  • FIG. 5A is a part of a flowchart showing the main processing according to the first embodiment of the present invention.
  • FIG. 5B is another part of the flowchart showing the main processing according to the first embodiment of the present invention.
  • FIG. 6A is a part of a conceptual diagram showing an example of the configuration of automatic accompaniment data according to the second embodiment of the present invention.
  • FIG. 6B is another part of the conceptual diagram showing an example of the configuration of the automatic accompaniment data according to the second embodiment of the present invention.
  • FIG. 7 is a conceptual diagram showing another example of the configuration of automatic accompaniment data according to the second embodiment of the present invention.
  • FIG. 8A is a part of a conceptual diagram showing another example of the structure of automatic accompaniment data according to the second embodiment of the present invention.
  • FIG. 8B is another part of the conceptual diagram showing another example of the configuration of the automatic accompaniment data according to the second embodiment of the present invention.
  • FIG. 9A is a part of a flowchart showing a main process according to the second and third embodiments of the present invention.
  • FIG. 9A is a part of a flowchart showing a main process according to the second and third embodiments of the present invention.
  • FIG. 9B is another part of the flowchart showing the main processing according to the second and third embodiments of the present invention.
  • FIG. 10 is a flowchart showing the synthetic waveform data generation process executed in step SA31 of FIG. 9B according to the second embodiment of the present invention.
  • FIG. 11 is a conceptual diagram showing an example of the configuration of automatic accompaniment data according to the third embodiment of the present invention.
  • FIG. 12 is a conceptual diagram showing another example of the configuration of automatic accompaniment data according to the third embodiment of the present invention.
  • FIG. 13 is a conceptual diagram showing an example of the semitone distance number table classified by code type which concerns on 3rd Embodiment of this invention.
  • FIG. 14A is a part of a flowchart showing the synthetic waveform data generation processing executed in step SA31 of FIG. 9B according to the third embodiment of the present invention.
  • FIG. 14B relates to the third embodiment of the present invention and is another part of the flowchart showing the synthetic waveform data generation process executed in step SA31 of FIG. 9B.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of an accompaniment data generation device 100 according to the first embodiment.
  • a RAM 7, ROM 8, CPU 9, detection circuit 11, display circuit 13, storage device 15, sound source 18 and communication interface (I / F) 21 are connected to the bus 6 of the accompaniment data generation device 100.
  • the RAM 7 has a buffer area such as a reproduction buffer, a working area for the CPU 9 including registers, and stores flags, various parameters, and the like. For example, automatic accompaniment data described later is loaded into a predetermined area in the RAM 7.
  • the ROM 8 can store various data files (for example, automatic accompaniment data AA described later), various parameters and a control program, or a program for realizing the first embodiment. In this case, it is not necessary to store programs or the like in the storage device 15 in an overlapping manner.
  • the CPU 9 performs calculation or device control according to a control program stored in the ROM 8 or the storage device 15 or a program for realizing the first embodiment.
  • a timer 10 is connected to the CPU 9, and a basic clock signal, interrupt processing timing, and the like are supplied to the CPU 9.
  • the user can perform various inputs, settings, and selections using the setting operator 12 connected to the detection circuit 11.
  • the setting operator 12 may be any switch, pad, fader, slider, rotary encoder, joystick, jog shuttle, character input keyboard, mouse, or the like that can output a signal in accordance with the user input.
  • the setting operator 12 may be a soft switch or the like displayed on the display device 14 that is operated using another operator such as a cursor switch.
  • the user operates the setting operator 12 to record (accompaniment) automatic accompaniment data recorded in the storage device 15 or the ROM 8 or acquired from an external device via the communication I / F 21. AA selection, automatic accompaniment start and stop instructions, and other setting operations are performed.
  • the display circuit 13 is connected to the display 14 and can display various information on the display 14.
  • the display 14 can display various information for setting the accompaniment data generating apparatus 100.
  • the storage device 15 is a combination of a storage medium such as a hard disk, an FD (flexible disk or floppy disk (registered trademark)), a CD (compact disk), a DVD (digital multipurpose disk), or a semiconductor memory such as a flash memory, and a driving device thereof. It is composed of at least one.
  • the storage medium may be detachable or built in.
  • the storage device 15 and / or the ROM 8 can preferably store a plurality of automatic accompaniment data AA, a program for realizing the first embodiment of the present invention, and other control programs.
  • the sound source 18 is, for example, a waveform memory sound source, and is a hardware or software sound source capable of generating a musical tone signal from at least waveform data (phrase waveform data), and automatic accompaniment data recorded in the storage device 15, ROM 8 or RAM 7, etc. Generate musical tone signals according to performance data, MIDI signals, phrase waveform data, and the like supplied from automatic performance data, performance operators (keyboards) 22 or external devices connected to the communication interface 21, etc. The effect is applied and supplied to the sound system 19 via the DAC 20.
  • the DAC 20 converts the supplied digital musical tone signal into an analog format, and the sound system 19 includes an amplifier and a speaker, and generates a DA converted musical tone signal.
  • the communication interface 21 is a general-purpose short-distance wired I / F such as USB or IEEE 1394, a general-purpose network I / F such as Ethernet (registered trademark), a general-purpose I / F such as MIDI I / F, a wireless LAN, or Bluetooth. It is composed of at least one of a communication interface such as a general-purpose short-range wireless I / F such as (registered trademark) and a music dedicated wireless communication interface, and can communicate with an external device, a server, and the like.
  • a general-purpose short-range wireless I / F such as (registered trademark) and a music dedicated wireless communication interface
  • a performance operator (keyboard or the like) 22 is connected to the detection circuit 11 and supplies performance information (performance data) according to the performance operation of the user.
  • the performance operator 22 is an operator for inputting a user's performance.
  • the performance operator 22 has a pitch corresponding to the operator operated by the user, and the operation start timing and end timing for the user operator are respectively used as a key-on and key-off signal. input.
  • various parameters such as velocity values can be input in accordance with a user's performance operation.
  • the performance information input by the performance operator (keyboard or the like) 22 includes chord information or information for generating chord information, which will be described later.
  • chord information For inputting chord information, an external device connected to the setting operator 12 and the communication interface 21 can be used in addition to the performance operator (keyboard or the like) 22.
  • FIG. 2 is a conceptual diagram showing an example of the configuration of automatic accompaniment data AA according to the first embodiment of the present invention.
  • the automatic accompaniment data AA according to the first embodiment of the present invention is, for example, when the user plays a melody line using the performance operator 22 shown in FIG. Data for performing accompaniment.
  • the automatic accompaniment data AA corresponds to music genres such as jazz, rock and classic, and a plurality of types are prepared for each genre, and are identified by an identification number (ID number), an accompaniment style name, or the like.
  • ID number an identification number
  • a plurality of automatic accompaniment data AA is stored in, for example, the storage device 15 or the ROM 8 of FIG. 1, and each automatic accompaniment data AA is assigned an ID number (“0001”, "0002" etc.).
  • Each automatic accompaniment data AA is usually prepared for each accompaniment style such as a plurality of rhythm types, music genres, and tempos.
  • Each automatic accompaniment data AA is provided with a plurality of sections according to the music scene such as intro, main, fill-in, and ending.
  • Each section is composed of a plurality of tracks such as a chord track, a bass track, and a drum (rhythm) track.
  • the automatic accompaniment data AA is composed of an arbitrary section, and the section includes a plurality of parts (part 1 (track 1) including a chord track that performs accompaniment using at least chords. ) To part n (track n)).
  • a plurality of accompaniment pattern data AP is associated with each part 1 to n (tracks 1 to n) of the automatic accompaniment data AA.
  • Each accompaniment pattern data AP corresponds to one chord type, and at least one phrase waveform data PW is associated therewith.
  • 37 types of chords such as major chord (Maj), minor chord (m), and seventh chord (7) are supported, and automatic accompaniment data AA
  • Each of the parts 1 to n (tracks 1 to n) stores 37 types of accompaniment pattern data AP.
  • the code types that can be handled are not limited to the 37 types shown in FIG.
  • the user may be able to set a compatible code type.
  • the automatic accompaniment data AA includes a plurality of parts (tracks)
  • at least one part needs to be associated with the accompaniment pattern data AP associated with the phrase waveform data PW.
  • accompaniment phrase data based on automatic performance data such as MIDI format may be associated.
  • a part of the accompaniment pattern data AP of Part 1 may be phrase waveform data PW and the others may be MIDI data MD.
  • All of the accompaniment pattern data AP of part n may be MIDI data MD.
  • the phrase waveform data PW is phrase waveform data in which a musical sound corresponding to the performance of an accompaniment phrase based on the chord type and chord root (root tone) supported by the associated accompaniment pattern data AP is recorded.
  • The length of multiple bars.
  • musical sounds obtained by performances that mainly use pitches C, E, and G, which are chords of Cmaj (including accompaniments other than chord accompaniment) are digitally sampled and stored.
  • the phrase waveform data PW may include pitches (non-harmonic sounds) other than the constituent sounds of a reference chord (a chord specified by a combination of chord type and chord root).
  • Each phrase waveform data PW is given an identifier capable of specifying the phrase waveform data PW.
  • “ID of automatic accompaniment data AA style number) —part (track) number—number representing chord root (root sound) —chord type number (see FIG. 3)”
  • An identifier is given to each phrase waveform data PW.
  • this identifier is used as chord type information for identifying the chord type of the phrase waveform data PW and chord root information for identifying the root note (chord root).
  • standard can be acquired with reference to the identifier of each phrase waveform data PW.
  • information about the code type and the code route may be added to each phrase waveform data PW by a method other than using the identifier as described above.
  • each phrase waveform data PW is prepared with “C” as the chord root (root sound), but the chord root (root sound) may be other than “C”, and one chord type A plurality (2 to 12) of chord root phrase waveform data PW may be prepared.
  • FIGS. 4A and 4B when preparing the phrase waveform data PW of all chord roots (12 sounds), the pitch shift process described later is not necessary.
  • the automatic accompaniment data AA is a setting of the entire automatic accompaniment data including the accompaniment style name, time signature information, tempo information (recording (playback) tempo of the phrase waveform data PW) of the automatic accompaniment data, information on each part, etc. Contains information.
  • each section includes the section name (intro, main, ending, etc.) and the number of bars (for example, one bar, four bars, eight bars, etc.).
  • each part includes accompaniment pattern data AP (phrase waveform data PW) corresponding to each of a plurality of chord types.
  • each chord type corresponds to a plurality of parts.
  • Data AP phrase waveform data PW
  • the phrase waveform data PW may be stored in the automatic accompaniment data AA or stored separately from the automatic accompaniment data AA, and only link information to the phrase waveform data PW is stored in the automatic accompaniment data AA. May be stored.
  • 5A and 5B are flowcharts showing main processing according to the first embodiment of the present invention. This main process is started simultaneously with the power-on of the accompaniment data generating apparatus 100 according to the first embodiment of the present invention.
  • step SA1 main processing is started, and initial setting is performed in step SA2.
  • Initial settings here include selection of automatic accompaniment data AA, setting of chord acquisition methods (input by user performance, input by direct designation by user, automatic input by chord progression information, etc.), setting of performance tempo, key setting, etc. Yes, for example, using the setting operator 12 of FIG.
  • step SA3 it is determined whether or not a setting change operation by the user has been detected.
  • the setting change operation here is a setting that needs to initialize the current setting, such as re-selection of automatic accompaniment data AA, and does not include, for example, changing the setting of the performance tempo. If a setting change operation is detected, the process proceeds to step SA4 indicated by a YES arrow. When the setting change operation is not detected, the process proceeds to step SA5 indicated by a NO arrow.
  • step SA4 automatic accompaniment stop processing is performed.
  • step SA5 it is determined whether or not an end operation of the main process (power-off of the accompaniment data generation device 100, etc.) has been detected. If an end operation is detected, the process proceeds to step SA24 indicated by a YES arrow, and the main process ends. If not detected, the process proceeds to step SA6 indicated by a NO arrow.
  • step SA6 it is determined whether or not a performance operation by the user has been detected.
  • the detection of the performance action by the user is performed by, for example, detecting whether or not a performance signal is input by operating the performance operator 22 of FIG. 1 or a performance signal is input via the communication I / F 21. If a performance operation is detected, the process proceeds to step SA7 indicated by a YES arrow to perform sound generation or mute processing based on the detected performance operation, and then proceeds to step SA8. If the performance operation is not detected, the process proceeds to step SA8 indicated by a NO arrow.
  • step SA8 it is determined whether an instruction to start automatic accompaniment is detected.
  • the automatic accompaniment start instruction is performed, for example, when the user operates the setting operator 12 shown in FIG. If an automatic accompaniment start instruction is detected, the process proceeds to step SA9 indicated by a YES arrow. When the start instruction is not detected, the process proceeds to step SA13 indicated by a NO arrow.
  • step SA13 it is determined whether an automatic accompaniment stop instruction is detected.
  • the automatic accompaniment stop instruction is given, for example, by the user operating the setting operator 12 shown in FIG. If an automatic accompaniment stop instruction is detected, the process proceeds to step SA14 indicated by an arrow of YES. If a stop instruction is not detected, the process proceeds to step SA17 indicated by a NO arrow.
  • step SA17 it is determined whether or not the flag RUN is set to 1.
  • RUN 1
  • RUN 0
  • the process returns to step SA3 indicated by a NO arrow.
  • step SA18 it is determined whether or not input of code information is detected (code information is acquired). If the input of code information is detected, the process proceeds to step SA19 indicated by a YES arrow, and if not detected, the process proceeds to step SA22 indicated by a NO arrow.
  • step SA18 may be repeated without proceeding to step SA22 until valid chord information is input, and generation of accompaniment data may be waited until valid chord information is input.
  • chord information is input by a performance operation using the performance operator 22 shown in FIG.
  • the acquisition of chord information from the user's performance is detected from, for example, a combination of key depressions in the chord key range, which is a partial area of the performance operator 22 such as a keyboard (in this case, no sound corresponding to the key depression is performed) Or may be detected from a key pressing state at a predetermined timing width in the entire key range of the keyboard.
  • a known code detection technique can be used.
  • the input chord information preferably includes chord type information for specifying the chord type and chord root information for specifying the root note (chord root). You may make it acquire the code type information and code route information for specifying a code type and a code route from a high combination.
  • chord information may be input not only using the performance operator 22 but also using the setting operator 12.
  • the code information may be input as a combination of information (characters and numbers) indicating the code root (root sound) and information (characters and numbers) indicating the code type. You may make it input by a symbol and a number (for example, refer the table of FIG. 3).
  • chord information may be read and acquired at a predetermined tempo without acquiring the chord information from the user's input. May be obtained.
  • step SA19 the code information set in “current code” is set in “previous code”, and the code information detected (acquired) in step SA18 is set in “current code”.
  • step SA20 it is determined whether or not the code information set in the “current code” and the code information set in the “immediate code” are the same. If they are the same, the process proceeds to step SA22 indicated by a YES arrow, and if not, the process proceeds to step SA21 indicated by a NO arrow. Note that the process also proceeds to step SA21 when the first code information is detected.
  • step SA21 for each accompaniment part (track) included in the automatic accompaniment data AA loaded in step SA10, accompaniment pattern data AP (accompaniment pattern data) that matches the chord type of the chord information set in “current chord”
  • accompaniment pattern data AP (accompaniment pattern data) that matches the chord type of the chord information set in “current chord”
  • the phrase waveform data PW) in the AP is set to “current accompaniment pattern data”.
  • step SA22 for each accompaniment part (track) included in the automatic accompaniment data AA loaded in step SA10, accompaniment pattern data AP (in the accompaniment pattern data AP set in “current accompaniment pattern data” in step SA21). From the phrase waveform data PW), data at a position suitable for the timer is read in accordance with the performance tempo of the user.
  • step SA23 for each accompaniment part (track) included in the automatic accompaniment data AA loaded in step SA10, the accompaniment pattern data AP (in the accompaniment pattern data AP in the accompaniment pattern data AP) set in “current accompaniment pattern data” in step SA21. Extract the chord root information (root information) of the chord (chord) used as the reference for the phrase waveform data PW), and calculate the pitch difference from the chord root (root sound) of the chord information set in the “current chord” Based on the calculated value, the data read in step SA22 is pitch-shifted to match the chord root (root note) of the chord information set in “current chord” and “accompaniment data” "Is output. The pitch shift is based on a well-known technique. If the pitch difference is 0, the pitch is not shifted and output as “accompaniment data”. Thereafter, the process returns to step SA3, and the subsequent processing is repeated.
  • step SA21 when preparing the phrase waveform data PW of all chord roots (12 sounds), in step SA21, the chord information of the chord information set in the “current chord” and the chord root are set.
  • the appropriate accompaniment pattern data phrase waveform data PA in the accompaniment pattern data
  • the pitch shift process in step SA23 is omitted.
  • the chord information set in “current chord” Phrase waveform data PW corresponding to the chord root having the same chord type and the smallest pitch difference may be read out and pitch shifted by the pitch difference.
  • the processing in step SA21 is performed so as to select the phrase waveform data PW corresponding to the chord root having the smallest pitch difference from the chord information (chord root) set in the “current chord”. That's fine.
  • the automatic accompaniment data AA is selected by the user before the start of automatic accompaniment by the process of step SA2, or selected during the automatic accompaniment by the processes of steps SA3, SA4, and SA2, but is stored in advance.
  • the designation information of the automatic accompaniment data AA may be included in the chord sequence data or the like, and it may be read and automatically selected. Further, the automatic accompaniment data AA may be selected in advance as a default.
  • the instruction to start and stop the reproduction of the selected automatic accompaniment data AA is performed by detecting the user's operation in step SA8 and step SA13, but the performance operator 22 by the user is used. The start and end of the performance that has been performed may be detected, and playback of the selected automatic accompaniment data AA may be automatically started and stopped.
  • step SA13 when an automatic accompaniment stop instruction is detected in step SA13, the automatic accompaniment may be stopped immediately, but automatically until the end of the phrase waveform data PW being reproduced or a break (where the sound is cut off). You may make it stop after continuing an accompaniment.
  • phrase waveform data PW in which the musical sound waveform is recorded for each chord type is prepared, it is possible to prevent deterioration of sound quality when generating accompaniment data. Moreover, if the phrase waveform data PW is prepared for each chord type for all chord root sounds, it is possible to prevent deterioration in sound quality due to pitch shift.
  • accompaniment patterns are prepared as phrase waveform data, automatic accompaniment with high sound quality becomes possible. It is also possible to automatically perform accompaniment using a special instrument or a special scale that is difficult to pronounce with a MIDI sound source.
  • 6A and 6B are conceptual diagrams showing an example of the configuration of automatic accompaniment data AA according to the second embodiment of the present invention.
  • the automatic accompaniment data AA includes one or more parts (tracks), and each accompaniment part includes at least one accompaniment pattern data AP (APa to APg).
  • Each accompaniment pattern data AP includes one basic waveform data BW and one or a plurality of selected waveform data SW.
  • automatic accompaniment data AA includes accompaniment style name, time signature information, tempo information (recording (playback) tempo of phrase waveform data PW), and information of each accompaniment part.
  • the setting information of the entire automatic accompaniment data including In the case of a plurality of sections, each section includes the section name (intro, main, ending, etc.) and the number of bars (for example, one bar, four bars, eight bars, etc.).
  • one basic waveform data BW and 0 to a plurality of selected waveform data SW are synthesized according to the code type of the chord information input by the user's performance operation or the like, and the chord of the input chord information Pitch waveform data (synthetic waveform data) corresponding to the accompaniment phrase with reference to the chord type and chord root of the input chord information is generated by pitch shifting according to the root.
  • the automatic accompaniment data AA according to the second embodiment of the present invention is also automatically recorded in accordance with at least one accompaniment part (track) when the user plays a melody line using the performance operator 22 shown in FIG. Data for performing accompaniment.
  • the automatic accompaniment data AA corresponds to music genres such as jazz, rock, and classic, and a plurality of types are prepared for each genre, and an identification number (ID number), an accompaniment style name, etc. Identified.
  • ID number an identification number
  • a plurality of automatic accompaniment data AA is stored in, for example, the storage device 15 or the ROM 8 in FIG. 1, and each automatic accompaniment data AA is assigned an ID number (“0001”). ",” 0002 ", etc.).
  • Each automatic accompaniment data AA is usually prepared for each accompaniment style such as a plurality of rhythm types, music genres, and tempos.
  • Each automatic accompaniment data AA is provided with a plurality of sections according to the music scene such as intro, main, fill-in, and ending.
  • Each section is composed of a plurality of tracks such as a chord track, a bass track, and a drum (rhythm) track.
  • the automatic accompaniment data AA is composed of any one section, and the section includes a plurality of accompaniment parts (accompaniment part 1 (tracks) including a chord track that performs accompaniment using at least chords. 1) to accompaniment part n (track n)).
  • accompaniment pattern data APa means any one or all of accompaniment pattern data APa to APg) correspond to one or more chord types, respectively.
  • One basic waveform data BW including the constituent sounds of those chord types and one or a plurality of selected waveform data SW are configured.
  • the basic waveform data BW is used as basic phrase waveform data
  • the selected waveform data SW is used as selected phrase waveform data.
  • phrase waveform data PW when referring to any one or both of the basic waveform data BW and the selected waveform data SW.
  • the accompaniment pattern data AP includes, as attribute information, reference pitch information (chord route information) and recording tempo (automatic accompaniment data AA) as attribute information, in addition to the phrase waveform data that is entity data. It is omissible if it is performed), length (time or number of bars, etc.), identifier (ID), name, number of phrase waveform data included in usage (for basic code, tension code, etc.), and the like.
  • the basic waveform data BW is created by digitally sampling a musical sound of an accompaniment performance of one to a plurality of measures using mainly all or a part of the constituent sounds of the chord type supported by the accompaniment pattern data AP. Phrase waveform data. Note that the basic waveform data BW may include pitches (non-harmonic sounds) other than the chord constituent sounds.
  • the selected waveform data SW is a phrase created by digitally sampling a musical sound of an accompaniment performance with a length of one to several bars using only one of the chord type constituent sounds supported by the accompaniment pattern data AP. Waveform data.
  • the basic waveform data BW and the selected waveform data SW are both created based on the same reference pitch (chord route).
  • the pitch C is created based on the pitch C, but the present invention is not limited to this.
  • the phrase waveform data PW (basic waveform data BW and selected waveform data SW) is given an identifier that can specify the phrase waveform data PW.
  • ID of automatic accompaniment data AA style number
  • accompaniment part (track) number number indicating chord root
  • chord route information constant sound information (chord composing sound included in phrase waveform data)
  • An identifier is given to each phrase waveform data PW in the form of “information indicating”.
  • the attribute information may be given to each phrase waveform data PW by a method other than using the identifier as described above.
  • the phrase waveform data PW may be stored in the automatic accompaniment data AA or stored separately from the automatic accompaniment data AA, and the link information LK to the phrase waveform data PW is stored in the automatic accompaniment data AA. May be stored only.
  • the automatic accompaniment data AA according to the second embodiment has a plurality of accompaniment parts (tracks) 1 to n, and each accompaniment part (track) 1 to n has a plurality of accompaniment pattern data AP.
  • accompaniment pattern data APa to APg are prepared for accompaniment part 1.
  • the accompaniment pattern data APa is accompaniment pattern data for basic chords and corresponds to a plurality of chord types (Maj, 6, M7, m, m6, m7, mM7, 7), and these chord types are used as a reference.
  • Accompanied phrase waveform data including chord root and complete 5th pitch is stored as basic waveform data BW to synthesize phrase waveform data (synthesized waveform data) corresponding to accompaniment performance, and combined with that Therefore, the selected waveform data SW is held for each of a plurality of chord constituent sounds (long third, short third, long 7 degrees, short 7 degrees, short 6 degrees).
  • the accompaniment pattern data APb is accompaniment pattern data for major tension chords, and the chord types (M7 (# 11), add9, M7 (9), 6 (9), 7 (9), 7 (# 11), 7 ( 13), 7 ( ⁇ 9), 7 ( ⁇ 13), 7 (# 9)), and synthesizing phrase waveform data (synthetic waveform data) corresponding to accompaniment performance based on these chord types
  • the basic waveform data BW includes accompaniment performance phrase waveform data including a chord root and a pitch of 3rd and 5th complete pitches. 6 degrees, 7 degrees short, 7 degrees long, 9 degrees long, 9 degrees short, 9 degrees increased, 11 degrees complete, 11 degrees increased, 13 degrees short, 13 degrees long) Holds SW.
  • the accompaniment pattern data APc is accompaniment pattern data for minor tension chords and corresponds to chord types (madd9, m7 (9), m7 (11), mM7 (9)), and these chord types are used as a reference.
  • the basic waveform data BW includes phrase waveform data including accompaniment performance including chord root and third and fifth pitches. Therefore, the selected waveform data SW is held for each of a plurality of chord constituent sounds (short 7 degrees, long 7 degrees, long 9 degrees, and complete 11 degrees).
  • the accompaniment pattern data APd is accompaniment pattern data for augment (aug) chords and corresponds to chord types (aug, 7aug, M7aug), and phrase waveform data corresponding to accompaniment performances based on these chord types.
  • accompaniment performance phrase waveform data including a chord root and a pitch of 3 degrees and 5 degrees is held and used in combination therewith.
  • the selected waveform data SW is held for each of a plurality of chord constituent sounds (short 7 degrees, long 7 degrees).
  • the accompaniment pattern data APe is accompaniment pattern data for a flat fifth ( ⁇ 5) chord, and the chord type (M7 ( ⁇ 5), ⁇ 5, m7 ( ⁇ 5), mM7 ( ⁇ 5), 7 ( ⁇ 5))
  • the chord root and the 5 degree pitch are used as basic waveform data BW. Since it contains phrase waveform data of accompaniment performance, and is used in combination with it, it is a selected waveform for each of a plurality of chord constituent sounds (3rd long, 3rd short, 7th short, 7th long) Data SW is held.
  • the accompaniment pattern data APf is accompaniment pattern data for diminished (dim) chords and corresponds to chord types (dim, dim7), and phrase waveform data (synthetic waveform) corresponding to accompaniment performances based on these chord types.
  • Data is stored as basic waveform data BW, and the phrase waveform data of accompaniment performance including the chord root and the pitches of the minor third and the fifth minor are held and used in combination with the chord configuration.
  • the selected waveform data SW of sound (decrease 7 degrees) is held.
  • the accompaniment pattern data APg is accompaniment pattern data for suspended four (sus4) chords and corresponds to chord types (sus4, 7sus4). Phrase waveform data (synthesized) corresponding to accompaniment performances based on these chord types.
  • the basic waveform data BW for synthesizing waveform data
  • the accompaniment performance phrase waveform data including the chord root and the complete 4th and 5th pitches are held, and the chord is used in combination with it.
  • the selected waveform data SW of the constituent sound is held.
  • link information LK to the phrase waveform data PW in the other accompaniment pattern data AP is displayed as shown by the dotted lines in FIGS. 6A and 6B. It may be recorded, or the same data may be recorded in an overlapping manner. Moreover, even if the data includes the same pitch, a phrase or the like different from other accompaniment pattern data AP may be recorded.
  • synthesized waveform data based on Maj, 6, M7, and 7 corresponding code types of the accompaniment pattern data APa may be generated using the accompaniment pattern data APb, or an accompaniment pattern using the accompaniment pattern data APc.
  • Synthetic waveform data based on m, m6, m7, and mM7 that are the corresponding code types of the data APa may be generated.
  • the data synthesized by the accompaniment pattern data APb or APc and the data synthesized by the accompaniment pattern data APa may be the same or different. That is, the phrase waveform data PW including the same pitch may be the same data or different data.
  • each phrase waveform data PW is prepared with “C” as the root (root sound), but the chord root (root sound) may be other than “C”.
  • a plurality (2 to 12) of chord root phrase waveform data PW may be prepared for one chord type. For example, as shown in FIG. 7, when accompaniment pattern data AP is prepared for all chord roots (12 sounds), the pitch shift process described later is not necessary.
  • the basic waveform data BW is made to correspond only to the chord root (and non-harmonic sound), and the selection waveform data SW is prepared for each of the constituent sounds other than the chord root. May be. In this way, all chord types can be handled with one accompaniment pattern data AP. Further, as shown in FIGS. 8A and 8B, by preparing accompaniment pattern data AP for all chord routes, it is possible to deal with all chord routes without a pitch shift. Note that only one or a part (plurality) of code routes may be prepared, and other code routes may be dealt with by pitch shift. By preparing selected waveform data SW for all constituent sounds, for example, combining waveform sounds that are likely to have chord characteristics (for example, chord root, 3 degrees, 7 degrees, etc.) are combined to generate composite waveform data Is possible.
  • chord characteristics for example, chord root, 3 degrees, 7 degrees, etc.
  • FIGS. 9A and 9B are flowcharts showing main processing according to the second embodiment of the present invention. Also in this case, this main process is started simultaneously with the power-on of the accompaniment data generating apparatus 100 according to the second embodiment of the present invention.
  • the processes of steps SA1 to SA10 and SA12 to SA20 in this main process are the same as the processes of steps SA1 to SA10 and SA12 to SA20 in FIGS. The description of is omitted.
  • each process described as a modification regarding steps SA1 to SA10 and SA12 to SA20 of the first embodiment is also applied to the processes of steps SA1 to SA10 and SA12 to SA20 of the second embodiment.
  • step SA11 ′ of FIG. 9A since composite waveform data is generated by the processing of step SA31 described later, in addition to the immediately preceding code and current code clear processing of step SA11 of the first embodiment, the composite waveform is generated. Data is also cleared. If NO is determined in step SA18 and if YES is determined in step S20, the process proceeds to step SA32 indicated by an arrow. Further, if NO is determined in step S20, the process proceeds to step SA31 indicated by an arrow.
  • step SA31 for each accompaniment part (track) included in the automatic accompaniment data AA loaded in step SA10, synthetic waveform data suitable for the chord type and chord root of the chord information set in “current chord” is generated. Thus, “current composite waveform data” is obtained.
  • the synthetic waveform data generation process will be described later with reference to FIG.
  • step SA32 for each accompaniment part (track) included in the automatic accompaniment data AA loaded in step SA10, the data at the position suitable for the timer is set from the “current synthesized waveform data” set in step SA31. It is read according to the performance tempo, and accompaniment data is generated and output based on the read data. Thereafter, the process returns to step SA3, and the subsequent processing is repeated.
  • FIG. 10 is a flowchart showing the synthetic waveform data generation process executed in step SA31 of FIG. 9B.
  • this process is repeated for the number of accompaniment parts.
  • the processing for the accompaniment part 1 when the input code information is “Dm7” in the data structure shown in FIGS. 6A and 6B will be described as an example.
  • step SB1 a composite waveform data generation process is started.
  • step SB2 the accompaniment pattern data AP associated with the accompaniment part currently being processed in the automatic accompaniment data AA loaded in step SA10 of FIG. 9A.
  • step SB3 the accompaniment pattern data AP corresponding to the code type of the chord information set to “current chord” in step SA19 in FIG. 9B is extracted and set as “current accompaniment pattern data”.
  • the basic chord accompaniment pattern data APa corresponding to “Dm7” is set as “current accompaniment pattern data”.
  • step SB3 the composite waveform data corresponding to the accompaniment part currently being processed is cleared.
  • step SB4 the difference between the reference pitch information (chord route information) of the accompaniment pattern data AP set in the “current accompaniment pattern data” and the chord route of the chord information set in the “current chord” (
  • the pitch shift amount is calculated from the pitch difference expressed by the number of semitones and the frequency, and is set as the “basic shift amount”. Note that the “basic shift amount” may be negative. Since the chord root of the accompaniment pattern data APa for basic chord is “C” and the chord root of chord information is “D”, the “basic shift amount” is “2 (number of semitones)”.
  • step SB5 the basic waveform data BW of the accompaniment pattern data AP set in the “current accompaniment pattern data” is pitch-shifted in the “basic shift amount” calculated in step SB4 and written in the “synthesized waveform data”. That is, the pitch of the chord root of the basic waveform data BW of the accompaniment pattern data AP set in the “current accompaniment pattern data” is made equal to the chord root of the chord information set in the “current chord”. Therefore, the pitch (pitch) of the chord root of the accompaniment pattern data APa for basic chords is increased by two semitones and the pitch is shifted to “D”.
  • step SB6 the basic waveform data BW of the accompaniment pattern data AP set in the “current accompaniment pattern data” out of all the constituent sounds of the code type of the chord information set in the “current chord” is not supported.
  • a constituent sound (not included in the basic waveform data BW) is extracted. All constituent sounds of “m7”, which is “current chord”, are “root, short third, complete 5 degrees, short 7 degrees”, and basic waveform data BW of accompaniment pattern data APa for basic chord is “root, complete Since “5 degrees” is included, the constituent sounds of “short 3 degrees” and “short 7 degrees” are extracted here.
  • step SB7 it is determined whether there is a constituent sound that is not supported by the basic waveform data BW extracted in step SB6 (not included in the basic waveform data BW). If there is an extracted component sound, the process proceeds to step SB8 indicated by a YES arrow. If there is no extracted component sound, the process proceeds to step SB9 indicated by a NO arrow, the combined waveform data generation process is terminated, and the process proceeds to step SA32 in FIG. 9B.
  • step SB8 the selection waveform data SW (including each component sound) corresponding to each component sound extracted in step SB6 is selected from the accompaniment pattern data AP set in the “current accompaniment pattern data”, and the selection is performed.
  • the selected waveform data SW is pitch-shifted by the “basic shift amount” calculated in step SB4 and synthesized with the basic waveform data BW written in the “synthesized waveform data” to obtain new “synthesized waveform data”.
  • step SB9 where the combined waveform data generation process is terminated, and the process proceeds to step SA32 in FIG. 9B.
  • the basic waveform data BW of the basic chord accompaniment pattern data APa is “2 semitones”.
  • the synthesized waveform data corresponding to the accompaniment with “Dm7” as a reference is synthesized with the “synthesized waveform data” written after the pitch shift.
  • step SB2 when preparing the phrase waveform data PW of all chord roots (12 sounds), in step SB2, the chord information of the chord information set to “current chord” and the chord root are set.
  • the appropriate accompaniment pattern data (phrase waveform data PA in the accompaniment pattern data) is set in the “current accompaniment pattern data”, and the pitch shift process in steps SB4, SB5, and SB8 is omitted.
  • the chord information set in “current chord” For each chord type, when preparing phrase waveform data PW corresponding to two or more chord roots of less than all chord roots (12 sounds), the chord information set in “current chord”
  • the phrase waveform data PW corresponding to the chord root having the smallest pitch difference may be read out, and the pitch difference may be set as the “basic shift amount”.
  • the processing of step SB2 is performed so that the phrase waveform data PW corresponding to the chord root having the smallest pitch difference from the chord information (chord root) set to “current chord” is selected. That's fine.
  • the basic waveform data BW and the selected waveform data SW are pitch-shifted by “basic shift amount” in steps SB5 and SB8. Then, the pitch-shifted basic waveform data BW and the selected waveform data SW are synthesized by the processing of steps SB5 and SB8. However, instead of this, the combined waveform data may be finally pitch-shifted by the “basic shift amount” as follows. That is, in steps SB5 and SB8, the basic waveform data BW and the selection waveform data SW are not pitch-shifted. Then, the waveform data synthesized by the processing in steps SB5 and SB8 is pitch-shifted by the “basic shift amount” in step SB8.
  • the basic waveform data BW and the selected waveform data SW are prepared in association with the accompaniment pattern data AP, and they are combined to correspond to a plurality of chord types. Since synthetic waveform data can be generated, automatic accompaniment according to the input chord is possible.
  • the selected waveform data SW it is possible to prepare phrase waveform data including only one tone sound and the like and synthesize the phrase waveform data. Therefore, it is possible to cope with the input of a chord including a tension sound. . In addition, it is possible to follow changes in the chord type accompanying chord changes.
  • phrase waveform data PW is prepared for all chord root sounds, it is possible to prevent deterioration of sound quality due to pitch shift.
  • accompaniment patterns are prepared as phrase waveform data, automatic accompaniment with high sound quality becomes possible. It is also possible to automatically perform accompaniment using a special instrument or a special scale that is difficult to pronounce with a MIDI sound source.
  • the hardware configuration of the accompaniment data generation device according to the third embodiment is also the same as the hardware configuration of the accompaniment data generation device 100 according to the first and second embodiments described above, and a description thereof will be omitted.
  • FIG. 11 is a conceptual diagram showing an example of the configuration of automatic accompaniment data AA according to the third embodiment of the present invention.
  • the automatic accompaniment data AA includes one or a plurality of parts (tracks), and each accompaniment part includes at least one accompaniment pattern data AP.
  • the accompaniment pattern data AP includes one route waveform data RW and a plurality of selected waveform data SW.
  • automatic accompaniment data AA includes accompaniment style name, time signature information, tempo information (recording (playback) tempo of phrase waveform data PW), and information of each accompaniment part. Including the setting information of the entire automatic accompaniment data including. In the case of a plurality of sections, each section includes the section name (intro, main, ending, etc.) and the number of bars (for example, one bar, four bars, eight bars, etc.).
  • the automatic accompaniment data AA according to the third embodiment of the present invention is also automatically recorded in accordance with at least one accompaniment part (track) when the user plays a melody line using the performance operator 22 shown in FIG. Data for performing accompaniment.
  • the automatic accompaniment data AA corresponds to music genres such as jazz, rock, and classic, and a plurality of types are prepared for each genre, and an identification number (ID number), an accompaniment style name, etc. Identified.
  • ID number an identification number
  • a plurality of automatic accompaniment data AA is stored, for example, in the storage device 15 or the ROM 8 of FIG. 1, and each automatic accompaniment data AA is given an ID number (“0001 ",” 0002 ", etc.).
  • Each automatic accompaniment data AA is usually prepared for each accompaniment style such as a plurality of rhythm types, music genres, and tempos.
  • Each automatic accompaniment data AA is provided with a plurality of sections according to the music scene such as intro, main, fill-in, and ending.
  • Each section is composed of a plurality of tracks such as a chord track, a bass track, and a drum (rhythm) track.
  • the automatic accompaniment data AA is composed of any one section, and the section includes a plurality of accompaniment parts (accompaniment part 1 (tracks) including a chord track that performs accompaniment using at least chords. 1) to accompaniment part n (track n)).
  • the accompaniment pattern data AP corresponds to a plurality of chord types at a predetermined reference pitch (chord root), and includes one root waveform data RW including constituent sounds of those chord types, one or a plurality of selected waveform data SW, It is comprised including.
  • the root waveform data RW is used as basic phrase waveform data
  • a plurality of selected waveform data SW are used as selected phrase waveform data.
  • the phrase waveform data PW is used to indicate any one or both of the route waveform data RW and the selected waveform data SW.
  • the accompaniment pattern data AP includes, as attribute information, reference pitch information (chord route information) and recording tempo (automatic accompaniment data AA) of the accompaniment pattern data AP. It can be omitted if defined), length (time or number of bars, etc.), identifier (ID), name, number of phrase waveform data included, and the like.
  • Root waveform data RW is phrase waveform data created by digitally sampling a musical tone of an accompaniment performance of one to a plurality of measures using mainly a chord root supported by the accompaniment pattern data AP. That is, the route waveform data RW is route reference phrase waveform data. Note that the root waveform data RW may include pitches (non-harmonic sounds) other than the chord constituent sounds.
  • the selected waveform data SW For the selected waveform data SW, only one of the constituent sounds of 3 degrees long, 5 degrees complete, and 7 degrees long (fourth voice) is used for the chord root supported by the accompaniment pattern data AP. Phrase waveform data created by digital sampling of musical tones with accompaniment performances with a length of one or more bars. If necessary, the selection waveform data SW using only the component sound for the tension cord, that is, 9 degrees long, 11 degrees complete, and 13 degrees long may be prepared.
  • the route waveform data RW and the selected waveform data SW are both created based on the same reference pitch (chord route).
  • the pitch C is created based on the pitch C, but the present invention is not limited to this.
  • the phrase waveform data PW (route waveform data RW and selected waveform data SW) is assigned an identifier that can specify the phrase waveform data PW.
  • ID of automatic accompaniment data AA style number
  • accompaniment part (track) number number indicating chord root (chord route information)
  • constant sound information chord configuration included in the phrase waveform data
  • An identifier is given to each phrase waveform data PW in the format of “information representing sound”.
  • the attribute information may be given to each phrase waveform data PW by a method other than using the identifier as described above.
  • the phrase waveform data PW may be stored in the automatic accompaniment data AA or stored separately from the automatic accompaniment data AA, and the link information LK to the phrase waveform data PW is stored in the automatic accompaniment data AA. May be stored only.
  • each phrase waveform data PW is prepared with “C” as the root (root sound), but the chord root (root sound) may be other than “C”, and one chord is also generated.
  • a plurality (2 to 12) of chord root phrase waveform data PW may be prepared for each type.
  • accompaniment pattern data AP can be prepared for all chord routes (12 notes).
  • the selected waveform data SW is phrase waveform data corresponding to 3 degrees long (semitone distance number 4), complete 5 degrees (semitone distance number 7), and 7 degrees long (semitone distance number 11).
  • 3 degrees long the selected waveform data corresponding to 3 degrees long
  • complete 5 degrees the selected waveform data SW
  • 7 degrees long the selected waveform data corresponding to 3 degrees long
  • ones corresponding to other frequencies for example, short 3 degrees (semitone distance number 3) and short 7 degrees (semitone distance number 10) may be prepared.
  • FIG. 13 is a conceptual diagram showing an example of a semitone distance number table by chord type according to the third embodiment of the present invention.
  • the route waveform data RW is pitch-shifted according to the chord root of chord information input by a user's performance operation or the like, and one or a plurality of selected waveform data SW is loaded according to the chord root and chord type.
  • Phrase waveform data corresponding to the accompaniment phrase based on the chord type and chord root of the input chord information by synthesizing the pitch-shifted root waveform data RW and one or a plurality of selected waveform data SW (Synthesized waveform data) is generated.
  • the selection waveform data SW is 3 degrees long (semitone distance number 4), complete 5 degrees (semitone distance number 7), long 7 degrees (semitone distance number 11), (long 9 degrees, complete 11).
  • the chord type semitone distance number table shown in FIG. 13 is referred to.
  • the semitone distance number table by chord type is a table in which the semitone distance numbers from the chord root to the chord root, the third, fifth, and fourth chord constituent sounds are recorded for each chord type.
  • the numbers of semitones from the chord root of the chord root, the third and fifth constituent sounds are 0, 4, and 7, respectively.
  • the selection waveform data SW of the third embodiment is prepared in correspondence with the long 3 degrees (semitone distance number 4) and the complete 5 degrees (semitone distance number 7), the pitch corresponding to the chord type is prepared.
  • the number of semitones from the chord root of the chord root, 3rd, 5th, 4th voice (eg, 7th) is , 0, 3, 7, and 10, it is necessary to lower the pitch (pitch) of the selected waveform data SW corresponding to 3 degrees long (semitone distance number 4) and 7 degrees long (semitone distance number 11) by one semitone respectively. It can be seen by referring to the semitone distance number table by chord type.
  • the selection waveform data SW corresponding to the constituent sound for the tension chord is used, the semitone distance from the chord root of the constituent sound of 9 degrees, 11 degrees, and 13 degrees is included in the chord type semitone distance number table. There is a need.
  • the main processing program when the accompaniment data generation apparatus 100 is turned on, the main processing program is activated and executed. Since the main processing program according to the third embodiment is the same as the main processing program of FIGS. 9A and 9B according to the second embodiment, description thereof is omitted. However, the synthetic waveform data generation process executed in step SA31 follows the programs of FIGS. 14A and 14B.
  • FIG. 14A and FIG. 14B are flowcharts showing the synthetic waveform data generation process.
  • this process is repeated for the number of accompaniment parts.
  • the process for the accompaniment part 1 when the input code information is “Dm7” in the data structure shown in FIG. 11 will be described as an example.
  • step SC1 a composite waveform data generation process is started.
  • step SC2 the accompaniment pattern data AP associated with the accompaniment part currently being processed in the automatic accompaniment data AA loaded in step SA10 of FIG. 9A. And “current accompaniment pattern data”.
  • step SC3 the composite waveform data corresponding to the accompaniment part currently being processed is cleared.
  • step SC4 the difference (semitone) between the reference pitch information (chord route information) of the accompaniment pattern data AP set in the “current accompaniment pattern data” and the chord route of the chord information set in the “current chord”.
  • the pitch shift amount is calculated from the (number of distances) and is set as the “basic shift amount”. Note that the “basic shift amount” may be negative. Since the chord root of the accompaniment pattern data APa for basic chord is “C” and the chord root of chord information is “D”, “basic shift amount” is “2 (number of semitone distances)”.
  • step SC5 the root waveform data RW of the accompaniment pattern data AP set in the “current accompaniment pattern data” is pitch-shifted by the “basic shift amount” calculated in step SC4 and written in the “synthesized waveform data”. That is, the pitch of the chord root of the route waveform data RW of the accompaniment pattern data AP set in the “current accompaniment pattern data” is made equal to the chord root of the chord information set in the “current chord”. Therefore, the chord root pitch (pitch) of the basic chord accompaniment pattern data APa is increased by two semitones, and the pitch is shifted to “D”.
  • step SC6 it is determined whether or not the chord type of the chord information set to “current chord” includes a constituent sound of 3 times (3rd short, 3rd long, 4th complete) with respect to the chord root. To do. If the third component sound is included, the process proceeds to step SC7 indicated by a YES arrow, and if not included, the process proceeds to step SC13 indicated by a NO arrow.
  • the code type of the code information set to “current chord” is “m7”, and the constituent sound of the third (short third) is included, so the process proceeds to step SC7.
  • step SC7 the number of semitones from the reference sound (chord root) of the selected waveform data SW of 3 degrees of the accompaniment pattern data AP set in the "current accompaniment pattern data" (long 3 degrees in the third embodiment) Therefore, “4”) is acquired and set to “3 times of the pattern”.
  • step SC8 the number of semitones from the reference sound (chord root) in the code type of the chord information set to “current chord” is acquired by referring to, for example, the semitone distance number table shown in FIG. And “3 times the code”.
  • the code type of the code information set to “current code” is “m7”
  • the number of semitone distances of the constituent sound of 3 degrees (short 3 degrees) is “3”.
  • step SC9 it is determined whether or not the “pattern three times” set in step SC7 and the “code three times” set in step SC8 are the same. If they are the same, the process proceeds to step SC10 indicated by a YES arrow. If not, the process proceeds to step SC11 indicated by a NO arrow.
  • the code type of the code information set to “current code” is “m7”, “3 times of pattern” is “4”, and “3 times of code” is “3”. Proceed to step SC11 according to the arrow.
  • step SC12 the selected waveform data SW of the accompaniment pattern data AP set in “current accompaniment pattern data” is pitch-shifted by the “shift amount” set in step SC10 or SC11, and “composite waveform data” is set. Is combined with the basic waveform data BW written in “” to obtain new “synthesized waveform data”. Thereafter, the process proceeds to Step SC13.
  • the pitch (pitch) of the selected waveform data SW for the third time is raised by one semitone.
  • step SC13 it is determined whether or not the chord type of the chord information set to “current chord” includes a constituent sound of 5 degrees (complete 5 degrees, decrement 5 degrees, increment 5 degrees) with respect to the chord root. To do. If the 5th component sound is included, the process proceeds to step SC14 indicated by a YES arrow, and if not included, the process proceeds to step SC20 indicated by a NO arrow.
  • the code type of the code information set to “current code” is “m7”, and since the constituent sound of 5 degrees (complete 5 degrees) is included, the process proceeds to step SC14.
  • step SC14 the number of semitones from the reference sound (chord root) of the selected waveform data SW of 5 degrees of the accompaniment pattern data AP set in the “current accompaniment pattern data” (completely 5 degrees in the third embodiment). Therefore, “7”) is acquired and set to “5 degrees of the pattern”.
  • step SC15 the number of semitones from the reference sound (chord root) in the code type of the chord information set to “current chord” is obtained by referring to, for example, the semitone distance number table shown in FIG. And “5 degrees of code”.
  • the code type of the code information set to “current code” is “m7”
  • the number of semitone distances of the constituent sound of 5 degrees (complete 5 degrees) is “7”.
  • step SC16 it is determined whether or not the “pattern 5 degrees” set in step SC14 and the “code 5 degrees” set in step SC15 are the same. If they are the same, the process proceeds to step SC17 indicated by a YES arrow. If not, the process proceeds to step SC18 indicated by a NO arrow.
  • the code type of the code information set to “current code” is “m7”, “5th of pattern” is “7”, and “5th of code” is also “7”. Therefore, the process proceeds to step SC17 following the YES arrow.
  • step SC19 the selected waveform data SW of 5 degrees of the accompaniment pattern data AP set in the “current accompaniment pattern data” is pitch-shifted by the “shift amount” set in step SC10 or SC11, and “synthesized waveform data” Is combined with the basic waveform data BW written in “” to obtain new “synthesized waveform data”. Thereafter, the process proceeds to Step SC20.
  • the pitch (pitch) of the selected waveform data SW of 5 degrees is raised by two semitones.
  • step SC20 the code type of the chord information set to “current chord” includes the fourth voice (6 degrees long, 7 degrees short, 7 degrees long, 7 degrees reduced) for the chord root. Determine whether or not.
  • the process proceeds to step SC21 indicated by an arrow of YES, and when not included, the process proceeds to step SC27 indicated by an arrow of NO, and the combined waveform data generation process is terminated and FIG.
  • the process proceeds to step SA32.
  • the code type of the code information set to “current chord” is “m7”, and the fourth voice (short seventh) is included, so the process proceeds to step SC21.
  • step SC21 the number of semitones from the reference sound (chord root) of the selected waveform data SW of the fourth voice of the accompaniment pattern data AP set in the “current accompaniment pattern data” (long 7 in the third embodiment) “11”) is acquired because it is a degree, and “the fourth voice of the pattern” is obtained.
  • step SC22 the number of semitones from the reference sound (chord root) of the fourth voice in the code type of the chord information set to “current chord” is set to, for example, the semitone distance by chord type shown in FIG. This is obtained by referring to the number table, and is set as “the fourth voice of the chord”.
  • the code type of the code information set to “current code” is “m7”
  • the number of semitone distances of the constituent sound of the fourth voice (short 7 degrees) is “10”.
  • step SC23 it is determined whether the “fourth voice of the pattern” set in step SC21 and the “fourth voice of the code” set in step SC22 are the same. If they are the same, the process proceeds to step SC24 indicated by a YES arrow. If not, the process proceeds to step SC25 indicated by a NO arrow.
  • the code type of the code information set to “current code” is “m7”
  • “the fourth voice of the pattern” is “11”
  • the fourth voice of the code” is “10”. Therefore, the process proceeds to step SC25 according to the NO arrow.
  • step SC26 the selected waveform data SW of the fourth voice of the accompaniment pattern data AP set in “current accompaniment pattern data” is pitch-shifted by the “shift amount” set in step SC24 or SC25, and “composite waveform” It is synthesized with the basic waveform data BW written in the “data” to obtain new “synthesized waveform data”. Thereafter, the process proceeds to step SC27, where the combined waveform data generation process is terminated, and the process proceeds to step SA32 in FIG. 9B.
  • the pitch (pitch) of the selected waveform data SW of the fourth voice is increased by one semitone.
  • the root waveform data RW is pitch-shifted by the “basic shift amount”
  • the selected waveform data SW is pitch-shifted by the number of semitone distances obtained by adding (subtracting) a value corresponding to the code type to the “basic shift amount”.
  • step SC4 when preparing the phrase waveform data PW for all chord roots (12 sounds), the basic shift amount calculation process in step SC4 and the pitch shift for the root waveform data RW in step SC5 are performed. The processing is omitted, and the basic shift amount is not added in Step SC10, Step SC11, Step SC17, Step SC18, Step SC24, and Step SC25.
  • the pitch difference from the chord information set in “current chord” is Phrase waveform data PW corresponding to the smallest chord root may be read and the pitch difference may be set as the “basic shift amount”.
  • the processing in step SC2 is performed so as to select the phrase waveform data PW corresponding to the chord root having the smallest pitch difference from the chord information (chord root) set in the “current chord”. That's fine.
  • the route waveform data RW is pitch-shifted by “basic shift amount” in step SC5.
  • “shift amount” “3 degrees of code” ⁇ “3 degrees of pattern” + “basic shift amount”
  • step SC12 the selected waveform data SW three times is pitch-shifted by the “shift amount” calculated in step SC10 or step SC11.
  • step SC19 the selected waveform data SW of 5 degrees is pitch-shifted by the “shift amount” calculated in step SC17 or step SC18.
  • step SC26 the selection waveform data SW of the fourth voice is pitch-shifted by the “shift amount” calculated in step SC24 or step SC25. Then, the pitch-shifted route waveform data and a plurality of selected waveform data SW are synthesized by the processing of steps SC5, SC12, SC19, and SC26.
  • the root waveform data RW and the selected waveform data SW are prepared in association with the accompaniment pattern data AP, and after the selected waveform data SW is appropriately pitch-shifted, they are used.
  • synthesizing synthesized waveform data corresponding to a plurality of chord types can be generated, and automatic accompaniment according to the input chord is possible.
  • the selected waveform data SW it is possible to prepare phrase waveform data including only one tone sound and the like, and to synthesize it after pitch shifting, so even if a chord including tension sound is input Correspondence is possible. In addition, it is possible to follow changes in the chord type accompanying chord changes.
  • phrase waveform data PW is prepared for all chord root sounds, it is possible to prevent deterioration of sound quality due to pitch shift.
  • accompaniment patterns are prepared as phrase waveform data, automatic accompaniment with high sound quality is possible. It is also possible to automatically perform accompaniment using a special instrument or a special scale that is difficult to pronounce with a MIDI sound source. d. Modified example
  • the recording tempo of the phrase waveform data PW is stored as attribute information of the automatic accompaniment data AA, but may be stored individually for each phrase waveform data PW.
  • the phrase waveform data PW is prepared for only one recording tempo, but the phrase waveform data PW may be prepared for a plurality of types of tempos.
  • the first to third embodiments of the present invention are not limited to the form of the electronic musical instrument, and may be implemented by a commercially available computer or the like in which a computer program or the like corresponding to the embodiment is installed.
  • the computer program or the like corresponding to each embodiment may be provided to the user while being stored in a storage medium that can be read by a computer such as a CD-ROM.
  • a computer such as a CD-ROM.
  • a communication network such as a LAN, the Internet, or a telephone line
  • a computer program, various data, and the like may be provided to the user via the communication network.

Abstract

 伴奏データ生成装置は、コードタイプとコードルートの組み合わせによって特定されるコードに関するフレーズ波形データを記憶する記憶手段15と、CPU9とを備えている。CPU9は、コードタイプとコードルートを特定するコード情報を取得するコード情報取得処理と、前記取得されたコード情報に基づき、記憶手段15に記憶されている複数のフレーズ波形データを用いて、前記取得されたコード情報によって特定されるコードルート及びコードタイプのコード音のフレーズ波形データを生成して伴奏データとして出力するコード音波形データ生成処理とを実行する。

Description

伴奏データ生成装置
 本発明は、コード音フレーズの波形データを生成する伴奏データ生成装置及び伴奏データ生成プログラムに関する。
 従来、音楽の各種スタイル(ジャンル)に対応したMIDI形式等の自動演奏データによる複数の伴奏スタイルデータを記憶し、ユーザ(演奏者)の選択した伴奏スタイルデータに基づいて、ユーザの演奏に伴奏を付与する自動伴奏装置が知られている(例えば、特許第2900753号公報参照)。
 従来の自動演奏データを利用した自動伴奏装置では、例えば、CMajなどの所定のコード(和音)に基づく伴奏スタイルデータを、ユーザの演奏から検出したコード(和音)情報に適合するように、音高変換することが行われている。
 また、アルペジオパターンデータをフレーズ波形データとして記憶し、ユーザの演奏入力に適合するように音高やテンポの調整を行い、自動伴奏データを生成するアルペジオ演奏装置が知られている(例えば、特許第4274272号公報参照)。
 上述の自動演奏データを利用した自動伴奏装置では、MIDI音源等を利用して楽音を生成するため、民族楽器や特殊な音階を用いる楽器などの楽音を用いた自動伴奏は困難であった。また、自動演奏データによる演奏のため、人間の生演奏による臨場感等を出すことが困難であった。
 また、上述のアルペジオ演奏装置等の従来のフレーズ波形データを利用した自動伴奏装置では、単音の伴奏フレーズのみが自動演奏可能であった。
 本発明の目的は、和音を含むフレーズ波形データを用いた自動伴奏データを生成可能な伴奏データ生成装置を提供することである。
 上記目的を達成するために、本発明の構成上の特徴は、コードタイプとコードルートの組み合わせによって特定されるコードに関するフレーズ波形データを記憶する記憶手段(15)と、コードタイプとコードルートを特定するコード情報を取得するコード情報取得手段(SA18,SA19)と、前記記憶手段に記憶されているフレーズ波形データを用いて、前記取得したコード情報によって特定されるコードに対応したコード音フレーズの波形データを伴奏データとして生成するコード音フレーズ生成手段(SA10,SA21~SA23,SA31,SA32,SB2~SB8,SC2~SC26)とを備えたことにある。
 具体的な第1の例としては、例えば、前記コードに関するフレーズ波形データを、コード構成音を混合したコード音のフレーズ波形データで構成する。
 この場合、前記記憶手段は、前記コード音のフレーズ波形データをコードタイプごとに記憶しており、前記コード音フレーズ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応したコード音のフレーズ波形データを前記記憶手段から読み出す読み出し手段(SA10,SA21,SA22)と、前記取得されたコード情報によって特定されるコードルートと、前記読み出したコード音のフレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出しコード音のフレーズ波形データをピッチシフトしてコード音フレーズの波形データを生成するピッチシフト手段(SA23)とで構成するとよい。
 また、前記記憶手段は、複数の異なる音高をコードルートとする複数の前記コード音のフレーズ波形データをコードタイプごとに記憶しており、前記コード音フレーズ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応したフレーズ波形データであって、前記取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとするコード音のフレーズ波形データを前記記憶手段から読み出す読み出し手段(SA10,SA21,SA22)と、前記取得されたコード情報によって特定されるコードルートと、前記読み出したコード音のフレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出したコード音のフレーズ波形データをピッチシフトしてコード音フレーズの波形データを生成するピッチシフト手段(SA23)とで構成してもよい。
 また、前記記憶手段は、前記コード音のフレーズ波形データをコードタイプ及びコードルートごとに記憶しており、前記コード音フレーズ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプ及びコードルートに対応したコード音のフレーズ波形データを前記記憶手段から読み出してコード音フレーズの波形データを生成する読み出し手段(SA10,SA21~SA23)で構成してもよい。
 また、具体的な第2の例としては、複数のコードタイプに共通であって少なくともコードルート音のフレーズ波形データを含む基本フレーズ波形データと、前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプにそれぞれ対応するとともに前記基本フレーズ波形データに含まれない複数のコード構成音(及びそれ以外の音)のフレーズ波形データである複数の選択フレーズ波形データとで構成し、前記コード音フレーズ生成手段は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出すとともに合成して、コード音フレーズの波形データを生成する。
 この場合、前記コード音フレーズ生成手段を、前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段(SA10,SA31,SB2,SB4,SB5)と、前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SB2,SB4,SB6~SB8)と、前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SA31,SB5、SB8)とで構成するとよい。
 また、前記コード音フレーズ生成手段を、前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SB2,SB5)と、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段(SA10,SA31,SB2,SB6~SB8)と、前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段(SA31,SB4,SB5、SB8)とで構成してもよい。
 また、前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、前記コード音フレーズ生成手段を、 前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段(SB2)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段(SA10,SA31,SB2,SB4,SB5)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SB2,SB4,SB6~SB8)と、前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SA31,SB5、SB8)とで構成してもよい。
 また、前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、前記コード音フレーズ生成手段を、 前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段(SB2)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SB2,SB5)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段第2の読み出し手段(SA10,SA31,SB2,SB6~SB8)と、前記読み出し基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段(SA31,SB4,SB5、SB8)とで構成してもよい。
 また、前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、前記コード音フレーズ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SB2,SB5)と、前記取得されたコード情報によって特定されるコードルート及びコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段(SA10,SA31,SB2,SB6~SB8)と、前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SA31,SB5、SB8)とで構成してもよい。
 さらに、前記基本フレーズ波形データは、コード構成音中のコードルート音と、コードルート音とは異なり記複数のコードタイプに共通のコード構成音とを混合した楽音のフレーズ波形データである。
 また、具体的な第3の例としては、例えば、前記コードに関するフレーズ波形データを、コードルート音のフレーズ波形データである基本フレーズ波形データと、前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプに対応するとともに前記基本フレーズ波形データを構成するコードルート音とは異なる複数のコード構成音のうちのいずれか(一部)のコード構成音のフレーズ波形データである選択フレーズ波形データ(複数の選択フレーズ波形データ)とで構成し、前記コード音フレーズ生成手段は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出し、前記読み出した選択フレーズ波形データを前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに応じてピッチシフトし、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成するとよい。
 また、前記コード音フレーズ生成手段を、前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段(SA10,SA31,SC2,SC4,SC5)と、前記取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に加えて、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SC2,SC4,SC6~SC12,SC13~SC19,SC20~SC26)と、前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SC5、SC12、SC19,SC26)とで構成してもよい。
 また、前記コード音フレーズ生成手段を、前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SC2,SC5)と、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SC6~SC12,SC13~SC19,SC20~SC26)と、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段(SC4,SC5、SC12、SC19,SC26)とで構成してもよい。
 また、前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、前記コード音波形データ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段(SC2)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段(SA10,SA31,SC2,SC4,SC5)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに応じて選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に加えて、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SC2,SC4,SC6~SC12,SC13~SC19,SC20~SC26)と、前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SC5、S12、SC19,SC26)とで構成してもよい。
 また、前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、前記コード音波形データ生成手段を、 前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段(SC2)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SC2,SC5)と、前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに応じて選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SC6~SC12,SC13~SC19,SC20~SC26)と、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段(SC4,SC5、S12、SC19,SC26,SA32)とで構成してもよい。
 また、前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、前記コード音フレーズ生成手段を、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段(SA10,SA31,SC2,SC5)と、前記取得されたコード情報によって特定されるコードルート及びコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段(SA10,SA31,SC6~SC12,SC13~SC19,SC20~SC26)と、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段(SC5、SC12、SC19,SC26)とで構成してもよい。
 また、前記選択フレーズ波形データは、少なくともコード構成音中の3度音及び5度音にそれぞれ対応したフレーズ波形データである。
 さらに、前記フレーズ波形データは、所定の小節数分の伴奏フレーズの演奏に対応した楽音を記録したものであるとよい。
 本発明によれば、和音を含むフレーズ波形データを用いた自動伴奏データを生成可能な伴奏データ生成装置を提供することができる。
 さらに、本発明の実施にあたっては、本発明は、伴奏データ生成装置の発明に限定されることなく、伴奏データ生成方法及び伴奏データ生成プログラムの発明としても実施し得るものである。
図1は、本発明の第1乃至第3実施形態に係る伴奏データ生成装置のハードウェア構成の一例を表すブロック図である。 図2は、本発明の第1実施形態に係る自動伴奏データの構成の一例を表す概念図である。 図3は、本発明の第1実施形態に係るコードタイプテーブルの一例を表す概念図である。 図4は、本発明の第1実施形態に係る自動伴奏データの構成の他の例を表す概念図である。 図5Aは、本発明の第1実施形態に係るメイン処理を表すフローチャートの一部分ある。 図5Bは、本発明の第1実施形態に係るメイン処理を表すフローチャートの他の部分ある。 図6Aは、本発明の第2実施形態に係る自動伴奏データの構成の一例を表す概念図の一部分である。 図6Bは、本発明の第2実施形態に係る自動伴奏データの構成の一例を表す概念図の他の部分である。 図7は、本発明の第2実施形態に係る自動伴奏データの構成の他の例を表す概念図である。 図8Aは、本発明の第2実施形態に係る自動伴奏データの構成の他の例を表す概念図の一部分である。 図8Bは、本発明の第2実施形態に係る自動伴奏データの構成の他の例を表す概念図の他の部分である。 図9Aは、本発明の第2及び第3実施形態に係るメイン処理を表すフローチャートの一部分ある。 図9Bは、本発明の第2及び第3実施形態に係るメイン処理を表すフローチャートの他の部分ある。 図10は、本発明の第2実施形態に係り、図9BのステップSA31で実行される合成波形データの生成処理を表すフローチャートである。 図11は、本発明の第3実施形態に係る自動伴奏データの構成の一例を表す概念図である。 図12は、本発明の第3実施形態に係る自動伴奏データの構成の他の例を表す概念図である。 図13は、本発明の第3実施形態に係るコードタイプ別半音距離数テーブルの一例を表す概念図である。 図14Aは、本発明の第3実施形態に係り、図9BのステップSA31で実行される合成波形データの生成処理を表すフローチャートの一部分である。 図14Bは、本発明の第3実施形態に係り、図9BのステップSA31で実行される合成波形データの生成処理を表すフローチャートの他の部分である。
a.第1実施形態
 まず、本発明の第1実施形態について説明すると、図1は、この第1実施形態に係る伴奏データ生成装置100のハードウェア構成の一例を表すブロック図である。
 伴奏データ生成装置100のバス6には、RAM7、ROM8、CPU9、検出回路11、表示回路13、記憶装置15、音源18及び通信インターフェイス(I/F)21が接続される。
 RAM7は、再生バッファ等のバッファ領域、レジスタ等からなるCPU9のワーキングエリアを有し、フラグ、各種パラメータ等を記憶する。例えば、後述する自動伴奏データは、このRAM7内の所定領域にロードされる。
 ROM8には、各種データファイル(例えば、後述する自動伴奏データAA)、各種パラメータ及び制御プログラム、又は本第1実施形態を実現するためのプログラム等を記憶することができる。この場合、プログラム等を重ねて、記憶装置15に記憶する必要は無い。
 CPU9は、ROM8又は記憶装置15に記憶されている制御プログラム又は本第1実施形態を実現するためのプログラム等に従い、演算又は装置の制御を行う。タイマ10が、CPU9に接続されており、基本クロック信号、割り込み処理タイミング等がCPU9に供給される。
 ユーザは、検出回路11に接続される設定操作子12を用いて、各種の入力、設定及び選択をすることができる。設定操作子12は、例えば、スイッチ、パッド、フェーダ、スライダ、ロータリーエンコーダ、ジョイスティック、ジョグシャトル、文字入力用キーボード、マウス等、ユーザの入力に応じた信号を出力できるものならどのようなものでもよい。また、設定操作子12は、カーソルスイッチ等の他の操作子を用いて操作する表示装置14上に表示されるソフトスイッチ等でもよい。
 本第1実施形態では、ユーザは、設定操作子12を操作することにより、記憶装置15若しくはROM8等に記録された、又は通信I/F21を介して外部機器から取得(ダウンロード)する自動伴奏データAAの選択、自動伴奏の開始及び停止指示、並びにその他の設定操作を行う。
 表示回路13は、ディスプレイ14に接続され、各種情報をディスプレイ14に表示することができる。ディスプレイ14は、伴奏データ生成装置100の設定のための各種情報等を表示することができる。
 記憶装置15は、ハードディスク、FD(フレキシブルディスク又はフロッピーディスク(登録商標))、CD(コンパクトディスク)、DVD(デジタル多目的ディスク)、フラッシュメモリ等の半導体メモリ等の記憶媒体とその駆動装置の組み合わせの少なくとも1つで構成される。記憶媒体は、着脱可能であってもよいし、内蔵されていてもよい。記憶装置15及び/又はROM8には、好ましくは複数の自動伴奏データAA及び本発明の第1実施形態を実現するためのプログラムや、その他の制御プログラムを記憶することができる。なお、本発明の第1実施形態を実現するためのプログラムや、その他の制御プログラムを記憶装置15に記憶する場合は、これらをROM8に合わせて記憶する必要はない。また、一部のプログラムのみを記憶装置15に記憶し、その他のプログラムをROM8に記憶するようにしてもよい。
 音源18は、例えば、波形メモリ音源であり、少なくとも波形データ(フレーズ波形データ)から楽音信号を生成可能なハードウェア又はソフトウェア音源であり、記憶装置15、ROM8又はRAM7等に記録された自動伴奏データ、自動演奏データ、又は演奏操作子(鍵盤)22若しくは通信インターフェイス21に接続された外部機器等から供給される演奏信号、MIDI信号、フレーズ波形データ等に応じて楽音信号を生成し、各種音楽的効果を付与して、DAC20を介して、サウンドシステム19に供給する。DAC20は、供給されるデジタル形式の楽音信号をアナログ形式に変換し、サウンドシステム19は、アンプ、スピーカを含み、DA変換された楽音信号を発音する。
 通信インターフェイス21は、USBやIEEE1394等の汎用近距離有線I/F、Ethernet(登録商標)等の汎用ネットワークI/F等の通信インターフェイス、MIDI I/Fなどの汎用I/F、無線LANやBluetooth(登録商標)等の汎用近距離無線I/F等の通信インターフェイス及び音楽専用無線通信インターフェイスのうち少なくとも1つで構成され、外部機器、サーバ等との通信が可能である。
 演奏操作子(鍵盤等)22は、検出回路11に接続され、ユーザの演奏動作に従い、演奏情報(演奏データ)を供給する。演奏操作子22は、ユーザの演奏を入力するための操作子であり、ユーザが操作した操作子に対応する音高で、ユーザの操作子に対する操作開始タイミング及び終了タイミングをそれぞれキーオン及びキーオフ信号として入力する。また、ユーザの演奏操作に応じてベロシティ値等の各種パラメータを入力することが可能である。
 なお、演奏操作子(鍵盤等)22により入力される演奏情報には、後述するコード情報又はコード情報を生成するための情報が含まれる。なお、コード情報の入力には、演奏操作子(鍵盤等)22以外にも、設定操作子12及び通信インターフェイス21に接続される外部機器を用いることもできる。
 図2は、本発明の第1実施形態に係る自動伴奏データAAの構成の一例を表す概念図である。
 本発明の第1実施形態に係る自動伴奏データAAは、例えば、ユーザが図1の演奏操作子22を用いてメロディラインを演奏する場合に、それに合わせて、少なくとも一つのパート(トラック)の自動伴奏を行うためのデータである。
 自動伴奏データAAは、ジャズ、ロック、クラッシック等の音楽ジャンルに対応するとともに各ジャンルごとに複数種類のものが用意されており、識別番号(ID番号)や、伴奏スタイル名等で識別される。本実施形態では、複数の自動伴奏データAAが、例えば、図1の記憶装置15又はROM8等に記憶されており、各自動伴奏データAAには、ID番号が付されている(「0001」、「0002」等)。
 各自動伴奏データAAは、通常、複数のリズム種類、音楽ジャンル、テンポ等の伴奏スタイル毎に用意される。また、それぞれの自動伴奏データAAには、イントロ、メイン、フィルイン、エンディング等の楽曲の場面に合わせた複数のセクションが用意される。さらに、それぞれのセクションは、コードトラック、ベーストラック、ドラム(リズム)トラックなどの複数のトラックで構成される。本第1実施形態では、説明の便宜上、自動伴奏データAAは、任意の1つのセクションで構成され、前記セクションが少なくとも和音を用いた伴奏を行うコードトラックを含む複数のパート(パート1(トラック1)~パートn(トラックn))を含んでいるものとする。
 自動伴奏データAAの各パート1~n(トラック1~n)には、複数の伴奏パターンデータAPが対応付けられている。各伴奏パターンデータAPは、それぞれ一つのコードタイプに対応しており、少なくとも一つのフレーズ波形データPWが対応付けられている。本第1実施形態では、図3のテーブルに示すように、メジャーコード(Maj)、マイナーコード(m)、セブンスコード(7)等の37種類のコードタイプに対応しており、自動伴奏データAAの各パート1~n(トラック1~n)は、37種類の伴奏パターンデータAPを記憶している。なお、対応可能なコードタイプは図3に示す37種類に限らず、適宜増減可能である。また、対応可能なコードタイプをユーザが設定できるようにしても良い。
 なお、自動伴奏データAAが複数のパート(トラック)を含む場合は、少なくとも一つのパートについては、フレーズ波形データPWが対応付けられた伴奏パターンデータAPが対応づけられている必要があるが、その他のパートについては、MIDI形式等の自動演奏データによる伴奏フレーズデータが対応付けられていても良い。例えば、図2に示す例におけるID番号「0002」が付与された自動伴奏データAAのように、パート1の伴奏パターンデータAPの一部をフレーズ波形データPWとしてその他をMIDIデータMDとしても良いし、パートnの伴奏パターンデータAPの全てをMIDIデータMDとしても良い。
 フレーズ波形データPWは、対応付けられた伴奏パターンデータAPが対応しているコードタイプ及びコードルート(根音)を基準とした伴奏フレーズの演奏に対応する楽音を記録したフレーズ波形データであり、1~複数小節の長さである。例えば、CMaj基準のフレーズ波形データPWには、Cmajのコード構成音である音高C、E、Gを主に用いた演奏(和音伴奏以外の伴奏も含む)による楽音をデジタルサンプリングして記憶した波形データである。なお、フレーズ波形データPWには、基準となるコード(コードタイプ及びコードルートの組み合わせで特定されるコード)の構成音以外の音高(非和声音)も含まれる場合がある。各フレーズ波形データPWには、フレーズ波形データPWを特定することが可能な識別子が付与されている。
 なお、本第1実施形態では、「自動伴奏データAAのID(スタイル番号)-パート(トラック)番号-コードルート(根音)を表す番号-コードタイプ番号(図3参照)」の形式で、各フレーズ波形データPWに識別子が付与されている。本第1実施形態では、この識別子をフレーズ波形データPWのコードタイプを特定するコードタイプ情報及び根音(コードルート)を特定するコードルート情報として利用する。これにより、各フレーズ波形データPWの識別子を参照して、フレーズ波形データPWが基準としているコードタイプやコードルート(根音)を取得することができる。なお、上記のような識別子を用いる以外の方法で、コードタイプやコードルートについての情報を各フレーズ波形データPWに付与するようにしても良い。
 なお、本実施形態では、各フレーズ波形データPWはコードルート(根音)を「C」として用意されているが、コードルート(根音)は「C」以外でも良く、さらに、一つのコードタイプについて複数(2~12)のコードルート(根音)のフレーズ波形データPWを用意するようにしても良い。図4A及び図4Bに示すように、全てのコードルート(12音)のフレーズ波形データPWを用意する場合には、後述するピッチシフトの処理は必要がなくなる。
 自動伴奏データAAは、上記以外にも、自動伴奏データの伴奏スタイル名、拍子情報、テンポ情報(フレーズ波形データPWの録音(再生)テンポ)、各パートの情報等を含む自動伴奏データ全体の設定情報を含んでいる。また、複数のセクションで構成される場合は、各セクションのセクション名(イントロ、メイン、エンディング等)、小節数(例えば、1小節、4小節、8小節等)を含んで構成される。
 なお、本第1実施形態では、各パートが複数のコードタイプのそれぞれに対応した伴奏パターンデータAP(フレーズ波形データPW)を含むようにしたが、各コードタイプが複数のパートに対応した伴奏パターンデータAP(フレーズ波形データPW)を含むようにしても良い。
 また、フレーズ波形データPWは、自動伴奏データAA内に記憶されていても良いし、自動伴奏データAAとは別に記憶して、自動伴奏データAA内には、フレーズ波形データPWへのリンク情報のみを記憶するようにしても良い。
 図5A及び図5Bは、本発明の第1実施形態に係るメイン処理を表すフローチャートである。このメイン処理は、本発明の第1実施形態に係る伴奏データ生成装置100の電源投入と同時に起動する。
 ステップSA1で、メイン処理を開始し、ステップSA2で初期設定を行う。ここでの初期設定は、自動伴奏データAAの選択、コード取得方法(ユーザ演奏による入力、ユーザの直接指定による入力、コード進行情報による自動入力等)の設定、演奏テンポの設定、調設定等であり、例えば、図1の設定操作子12を用いて行う。また、自動伴奏処理開始フラグRUNを初期化(RUN=0)するとともに、タイマ、その他のフラグ、レジスタ等を初期化する。
 ステップSA3では、ユーザによる設定変更操作を検出したか否かを判断する。ここでの設定変更操作は、自動伴奏データAAの再選択等、現在の設定を初期化する必要のある設定であり、例えば、演奏テンポの設定変更等は含まれない。設定変更操作を検出した場合は、YESの矢印で示すステップSA4に進む。設定変更操作を検出しない場合は、NOの矢印で示すステップSA5に進む。
 ステップSA4では、自動伴奏停止処理を行う。自動伴奏停止処理は、例えば、タイマを停止し、フラグRUNを0に設定(RUN=0)し、発音中の自動伴奏による楽音の消音処理を行う。その後、ステップSA2に戻り、検出した変更操作に従い再度初期設定を行う。なお、自動伴奏中でない場合には、そのままステップSA2に戻る。
 ステップSA5では、メイン処理の終了操作(伴奏データ生成装置100の電源切断等)を検出したか否かを判断する。終了操作を検出した場合は、YESの矢印で示すステップSA24に進みメイン処理を終了する。検出しない場合はNOの矢印で示すステップSA6に進む。
 ステップSA6では、ユーザによる演奏操作を検出したか否かを判断する。ユーザによる演奏動作の検出は、例えば、図1の演奏操作子22の操作による演奏信号の入力又は、通信I/F21を介した演奏信号の入力の有無を検出することにより行う。演奏操作を検出した場合は、YESの矢印で示すステップSA7に進み、検出した演奏動作に基づく発音又は消音処理を行い、ステップSA8に進む。演奏操作を検出しない場合はNOの矢印で示すステップSA8に進む。
 ステップSA8では、自動伴奏の開始指示を検出したか否かを判断する。自動伴奏の開始指示は、例えば、ユーザが図1の設定操作子12を操作することにより行う。自動伴奏開始指示を検出した場合は、YESの矢印で示すステップSA9に進む。開始指示を検出しない場合は、NOの矢印で示すステップSA13に進む。
 ステップSA9では、フラグRUNを1に設定(RUN=1)に設定し、ステップSA10では、ステップSA2又はステップSA3で選択された自動伴奏データAAを、例えば、図1の記憶装置15等からRAM7の所定領域内等にロードする。その後、ステップSA11で、直前コードと現在コードをクリアし、ステップSA12でタイマを起動して、ステップSA13に進む。
 ステップSA13では、自動伴奏の停止指示を検出したか否かを判断する。自動伴奏の停止指示は、例えば、ユーザが図1の設定操作子12を操作することにより行う。自動伴奏の停止指示を検出した場合は、YESの矢印で示すステップSA14に進む。停止指示を検出しない場合は、NOの矢印で示すステップSA17に進む。
 ステップSA14では、タイマを停止し、ステップSA15では、フラグRUNを0に設定(RUN=0)に設定する。その後、ステップSA16で、自動伴奏データの生成処理を停止し、ステップSA17に進む。
 ステップSA17では、フラグRUNが1に設定されているか否かを判断する。RUNが1の場合(RUN=1)の場合は、YESの矢印で示す図5BのステップSA18に進む。RUNが0の場合(RUN=0)の場合は、NOの矢印で示すステップSA3に戻る。
 ステップSA18では、コード情報の入力を検出(コード情報を取得)したか否かを判断する。コード情報の入力を検出した場合には、YESの矢印で示すステップSA19に進み、検出しない場合には、NOの矢印で示すステップSA22に進む。
 コード情報の入力を検出しない場合には、すでに何らかのコード情報に基づき自動伴奏生成中の場合と、有効なコード情報がない場合が含まれる。有効なコード情報がない場合には、コード情報を必要としない、例えば、リズムパートのみ伴奏データを生成するようにしても良い。あるいは、有効なコード情報が入力されるまで、ステップSA22に進まずに、ステップSA18の処理を繰り返すようにして、有効なコード情報が入力されるまで伴奏データの生成を待つようにしてもよい。
 なお、コード情報の入力は、ユーザの図1の演奏操作子22等を用いた演奏操作により入力される。ユーザの演奏からのコード情報の取得は、例えば、鍵盤等の演奏操作子22の一部の領域であるコード鍵域の押鍵の組み合わせから検出(この場合は押鍵に対応する発音は行わない)してもよく、鍵盤の全鍵域における所定タイミング幅での押鍵状態から検出するようにしてもよい。その他、周知のコード検出技術を利用可能である。
 入力されるコード情報は、コードタイプを特定するコードタイプ情報及び根音(コードルート)を特定するコードルート情報を含んで構成されることが好ましいが、ユーザ演奏等により入力される演奏信号の音高の組み合わせからコードタイプ及びコードルートを特定するためのコードタイプ情報及びコードルート情報を取得するようにしても良い。
 また、コード情報の入力は、演奏操作子22を利用したものに限らず、設定操作子12を利用して行ってもよい。その場合、例えば、コード情報をコードルート(根音)を表す情報(文字や数字)とコードタイプを表す情報(文字や数字)の組み合わせで入力するようにしてもよく、使用可能なコード情報を記号や番号(例えば、図3のテーブル参照)で入力するようにしてもよい。
 さらに、コード情報をユーザの入力によらずに、あらかじめ記憶しておいたコードシーケンス(コード進行情報)を所定のテンポで読み出して取得するようにしてもよく、再生中の曲データ等からコード検出を行い取得してもよい。
 ステップSA19では、「現在コード」に設定されているコード情報を「直前コード」にセットし、ステップSA18で検出(取得)したコード情報を「現在コード」にセットする。
 ステップSA20では、「現在コード」に設定されているコード情報と「直前コード」に設定されているコード情報とが同一であるか否かを判断する。同一である場合はYESの矢印で示すステップSA22に進み、同一でない場合は、NOの矢印で示すステップSA21に進む。なお、初回コード情報検出時もステップSA21に進む。
 ステップSA21では、ステップSA10でロードされた自動伴奏データAAに含まれる各伴奏パート(トラック)について、「現在コード」に設定されているコード情報のコードタイプに適合する伴奏パターンデータAP(伴奏パターンデータAP内のフレーズ波形データPW)を「現在の伴奏パターンデータ」にセットする。
 ステップSA22では、ステップSA10でロードされた自動伴奏データAAに含まれる各伴奏パート(トラック)について、ステップSA21で「現在の伴奏パターンデータ」にセットされた伴奏パターンデータAP(伴奏パターンデータAP内のフレーズ波形データPW)からタイマに適合する位置のデータをユーザの演奏テンポに合わせて読み出す。
 ステップSA23では、ステップSA10でロードされた自動伴奏データAAに含まれる各伴奏パート(トラック)について、ステップSA21で「現在の伴奏パターンデータ」にセットされた伴奏パターンデータAP(伴奏パターンデータAP内のフレーズ波形データPW)の基準となるコード(和音)のコードルート情報(根音情報)を抽出し、「現在コード」に設定されているコード情報のコードルート(根音)との音高差を算出して、該算出した値に基づいて、ステップSA22で読み出したデータを、「現在コード」に設定されているコード情報のコードルート(根音)に適合するようにピッチシフトして「伴奏データ」として出力する。ピッチシフトは周知の技術による。なお、音高差が0の場合はピッチシフトを行わずに、「伴奏データ」として出力する。その後、ステップSA3に戻り、以降の処理を繰り返す。
 なお、図4に示すように、全てのコードルート(12音)のフレーズ波形データPWを用意する場合には、ステップSA21では「現在コード」に設定されているコード情報のコードタイプとコードルートに適合する伴奏パターンデータ(伴奏パターンデータ内のフレーズ波形データPA)を「現在の伴奏パターンデータ」にセットし、ステップSA23におけるピッチシフトの処理は省略する。また、コードタイプごとに、全てのコードルート(12音)未満の2以上の複数のコードルートに対応したフレーズ波形データPWを用意する場合には、「現在コード」に設定されているコード情報とコードタイプが同一で音高差が最も少ないコードルートに対応したフレーズ波形データPWを読み出して、音高差の分だけピッチシフトするようにすれば良い。なお、この場合、ステップSA21の処理により、「現在コード」に設定されているコード情報(コードルート)との音高差が最も少ないコードルートに対応したフレーズ波形データPWを選択するように処理すればよい。
 また、自動伴奏データAAは、ステップSA2の処理によりユーザが自動伴奏開始前に選択するか、又はステップSA3、SA4,SA2の処理により自動伴奏中に選択するようにしたが、予め記憶しておいたコードシーケンスデータ等を再生する場合などは、コードシーケンスデータ等に自動伴奏データAAの指定情報を含ませるようにして、それを読み出して自動的に選択するようにしても良い。また、デフォルトとして予め自動伴奏データAAが選択されるようにしても良い。
 また、上記第1実施形態においては、選択した自動伴奏データAAの再生の開始及び停止指示は、ステップSA8及びステップSA13においてユーザの操作を検出して行ったが、ユーザによる演奏操作子22を用いた演奏の開始及び終了を検出して、選択した自動伴奏データAAの再生の開始及び停止を自動的に行うようにしても良い。
 さらに、ステップSA13において自動伴奏の停止指示を検出した際に、直ちに自動伴奏を停止するようにしても良いが、再生中のフレーズ波形データPWの最後もしくは区切れ目(音の切れるところなど)まで自動伴奏を継続してから停止するようにしても良い。
 以上、本発明の第1実施形態によれば、伴奏パターンデータAPに対応付けて、コードタイプごとに楽音波形を記録したフレーズ波形データPWを用意するため、入力されるコードにあわせた自動伴奏が可能となる。
 また、テンション音を単純にピッチシフトするとアヴォイドノートになる場合があるが、本第1実施形態では、コードタイプごとに楽音波形を記録したフレーズ波形データPWを用意するため、テンション音を含むコードが入力されても対応が可能である。また、コードチェンジに伴うコードタイプの変化にも追従可能である。
 また、コードタイプごとに楽音波形を記録したフレーズ波形データPWを用意するため、伴奏データ生成時の音質の劣化を防ぐことが可能となる。また、全てのコードルート音についてコードタイプごとにフレーズ波形データPWを用意すれば、ピッチシフトによる音質の劣化を防ぐこともできる。
 さらに、伴奏パターンをフレーズ波形データで用意するため、高音質での自動伴奏が可能となる。また、MIDI音源では発音が困難な特殊な楽器や特殊な音階を利用した伴奏も自動で行うことが可能となる。
b.第2実施形態
 次に、本発明の第2実施形態について説明する。この第2実施形態の伴奏データ生成装置のハードウェア構成は、上述した第1実施形態に係る伴奏データ生成装置100のハードウェア構成と同じであるので、その説明を省略する。
 図6A及び図6Bは、本発明の第2実施形態による自動伴奏データAAの構成の一例を表す概念図である。
 自動伴奏データAAは、1又は複数のパート(トラック)を含んで構成され、各伴奏パートは、少なくとも一つの伴奏パターンデータAP(APa~APg)を含んで構成される。各伴奏パターンデータAPは、1つの基本波形データBWと、1又は複数の選択波形データSWとを含んで構成される。自動伴奏データAAは、伴奏パターンデータAPのような実体データに加えて、自動伴奏データの伴奏スタイル名、拍子情報、テンポ情報(フレーズ波形データPWの録音(再生)テンポ)、各伴奏パートの情報等を含む自動伴奏データ全体の設定情報を含んでいる。また、複数のセクションで構成される場合は、各セクションのセクション名(イントロ、メイン、エンディング等)、小節数(例えば、1小節、4小節、8小節等)を含んで構成される。
 この第2実施形態では、ユーザの演奏操作等により入力されるコード情報のコードタイプに応じて、1つの基本波形データBWと、0~複数の選択波形データSWを合成し、入力コード情報のコードルートに応じてピッチシフトすることにより、入力コード情報のコードタイプ及びコードルートを基準とした伴奏フレーズに対応するフレーズ波形データ(合成波形データ)を生成する。
 本発明の第2実施形態による自動伴奏データAAも、例えば、ユーザが図1の演奏操作子22を用いてメロディラインを演奏する場合に、それに合わせて、少なくとも一つの伴奏パート(トラック)の自動伴奏を行うためのデータである。
 この場合も、自動伴奏データAAは、ジャズ、ロック、クラッシック等の音楽ジャンルに対応するとともに各ジャンルごとに複数種類のものが用意されており、識別番号(ID番号)や、伴奏スタイル名等で識別される。本第2実施形態では、複数の自動伴奏データAAが、例えば、図1の記憶装置15又はROM8等に記憶されており、各自動伴奏データAAには、ID番号が付されている(「0001」、「0002」等)。
 各自動伴奏データAAは、通常、複数のリズム種類、音楽ジャンル、テンポ等の伴奏スタイル毎に用意される。また、それぞれの自動伴奏データAAには、イントロ、メイン、フィルイン、エンディング等の楽曲の場面に合わせた複数のセクションが用意される。さらに、それぞれのセクションは、コードトラック、ベーストラック、ドラム(リズム)トラックなどの複数のトラックで構成される。本第2実施形態でも、説明の便宜上、自動伴奏データAAは、任意の1つのセクションで構成され、セクションが少なくとも和音を用いた伴奏を行うコードトラックを含む複数の伴奏パート(伴奏パート1(トラック1)~伴奏パートn(トラックn))を含んでいるものとする。
 伴奏パターンデータAPa~APg(以下、伴奏パターンデータAPとする場合は、伴奏パターンデータAPa~APgのいずれか一つまたは全部を指すものとする)は、それぞれ1又は複数のコードタイプに対応し、それらのコードタイプの構成音を含む1つの基本波形データBWと、1又は複数の選択波形データSWとを含んで構成される。本発明では、この基本波形データBWを基本フレーズ波形データとし、選択波形データSWを選択フレーズ波形データとする。以下、基本波形データBW及び選択波形データSWの任意の一方又は双方を指すときにはフレーズ波形データPWとする。また、伴奏パターンデータAPは、実体データであるフレーズ波形データに加えて、属性情報として、伴奏パターンデータAPの基準音高情報(コードルート情報)、録音テンポ(自動伴奏データAAで一括して定義される場合は省略可)、長さ(時間または小節数等)、識別子(ID)、名前、用途(基本コード用、テンションコード用等)に含まれるフレーズ波形データ数などを保持している。
 基本波形データBWは、伴奏パターンデータAPが対応しているコードタイプの全部又は一部の構成音を主に用いた1~複数小節の長さの伴奏演奏による楽音をデジタルサンプリングして作成されるフレーズ波形データである。なお、基本波形データBWには、コードの構成音以外の音高(非和声音)も含まれる場合がある。
 選択波形データSWは、伴奏パターンデータAPが対応しているコードタイプの構成音のうちの一つのみを用いた1~複数小節の長さの伴奏演奏による楽音をデジタルサンプリングして作成されるフレーズ波形データである。
 基本波形データBW及び選択波形データSWは、いずれも同一の基準音高(コードルート)を基準に作成されている。本第2実施形態では、音高Cを基準に作成されているが、これに限るものではない。
 フレーズ波形データPW(基本波形データBW及び選択波形データSW)には、フレーズ波形データPWを特定することが可能な識別子が付与されている。本第2実施形態では、「自動伴奏データAAのID(スタイル番号)-伴奏パート(トラック)番号-コードルートを表す番号(コードルート情報)-構成音情報(フレーズ波形データに含まれるコード構成音を表す情報)」の形式で、各フレーズ波形データPWに識別子が付与されている。なお、上記のような識別子を用いる以外の方法で、属性情報を各フレーズ波形データPWに付与するようにしても良い。
 なお、フレーズ波形データPWは、自動伴奏データAA内に記憶されていても良いし、自動伴奏データAAとは別に記憶して、自動伴奏データAA内には、フレーズ波形データPWへのリンク情報LKのみを記憶するようにしても良い。
 以下、図6A及び図6Bを参照して本第2実施形態による自動伴奏データAAの一例を具体的に説明する。本第2実施形態による自動伴奏データAAは、複数の伴奏パート(トラック)1~nを有し、各伴奏パート(トラック)1~nは、複数の伴奏パターンデータAPを有している。例えば、伴奏パート1には、伴奏パターンデータAPa~APgが用意されている。
 伴奏パターンデータAPaは、基本コード用伴奏パターンデータであり、複数のコードタイプ(Maj、6、M7、m、m6、m7、mM7、7)に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと完全5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、複数のコード構成音(長3度、短3度、長7度、短7度、短6度)の一つずつに対して選択波形データSWを保持している。
 伴奏パターンデータAPbは、メジャーテンションコード用伴奏パターンデータであり、コードタイプ(M7(♯11)、add9、M7(9)、6(9)、7(9)、7(♯11)、7(13)、7(♭9)、7(♭13)、7(♯9))に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、長3度及び完全5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、複数のコード構成音(長6度、短7度、長7度、長9度、短9度、増9度、完全11度、増11度、短13度、長13度)の一つずつに対して選択波形データSWを保持している。
 伴奏パターンデータAPcは、マイナーテンションコード用伴奏パターンデータであり、コードタイプ(madd9、m7(9)、m7(11)、mM7(9))に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、短3度及び完全5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、複数のコード構成音(短7度、長7度、長9度、完全11度)の一つずつに対して選択波形データSWを保持している。
 伴奏パターンデータAPdは、オーギュメント(aug)コード用伴奏パターンデータであり、コードタイプ(aug、7aug、M7aug)に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、長3度及び増5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、複数のコード構成音(短7度、長7度)の一つずつに対して選択波形データSWを保持している。
 伴奏パターンデータAPeは、フラットフィフス(♭5)コード用伴奏パターンデータであり、コードタイプ(M7(♭5)、♭5、m7(♭5)、mM7(♭5)、7(♭5))に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、減5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、複数のコード構成音(長3度、短3度、短7度、長7度)の一つずつに対して選択波形データSWを保持している。
 伴奏パターンデータAPfは、ディミニッシュ(dim)コード用伴奏パターンデータであり、コードタイプ(dim、dim7)に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、短3度及び減5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、コード構成音(減7度)の選択波形データSWを保持している。
 伴奏パターンデータAPgは、サスペンデッドフォー(sus4)コード用伴奏パターンデータであり、コードタイプ(sus4、7sus4)に対応しており、これらのコードタイプを基準とした伴奏演奏に対応するフレーズ波形データ(合成波形データ)を合成するために基本波形データBWとして、コードルートと、完全4度及び完全5度の音高とを含む伴奏演奏のフレーズ波形データを保持しており、それと組み合わせて用いるため、コード構成音(短7度)の選択波形データSWを保持している。
 なお、他の伴奏パターンデータAPに同一のフレーズ波形データPWが含まれる場合、図6A及び図6B中点線で示すように、他の伴奏パターンデータAP内のフレーズ波形データPWへのリンク情報LKを記録するようにしてもよいし、同一のデータを重ねて記録するようにしてもよい。また、同一の音高を含むデータであっても、他の伴奏パターンデータAPとは異なるフレーズ等を記録するようにしてもよい。
 また、伴奏パターンデータAPbを用いて伴奏パターンデータAPaの対応コードタイプであるMaj、6、M7、7を基準とした合成波形データを生成してもよいし、伴奏パターンデータAPcを用いて伴奏パターンデータAPaの対応コードタイプであるm、m6、m7、mM7を基準とした合成波形データを生成してもよい。この場合、伴奏パターンデータAPb又はAPcにより合成されるデータと伴奏パターンデータAPaにより合成されるデータは同一のものとなってもよいし、異なるものであってもよい。すなわち、同一の音高を含むフレーズ波形データPWは、同一のデータであってもよいし、異なるデータであってもよい。
 なお、図6A及び図6Bに示す例では、各フレーズ波形データPWはルート(根音)を「C」として用意されているが、コードルート(根音)は「C」以外でも良く、さらに、一つのコードタイプについて複数(2~12)のコードルート(根音)のフレーズ波形データPWを用意するようにしても良い。例えば、図7に示すように、全てのコードルート(12音)について、伴奏パターンデータAPを用意する場合には、後述するピッチシフトの処理は必要がなくなる。
 また、図8A及び図8Bに示すように、基本波形データBWをコードルート(及び非和声音)のみに対応させ、コードルート以外の構成音の一つずつに対して選択波形データSWを用意してもよい。このようにすると、一つの伴奏パターンデータAPですべてのコードタイプに対応可能である。また、図8A及び図8Bに示すように、すべてのコードルートについて、伴奏パターンデータAPを用意することで、すべてのコードルートにピッチシフトなしで対応可能である。なお、一つまたは一部(複数)のコードルートのみを用意して、その他のコードルートにはピッチシフトで対応するようにしてもよい。全構成音についての選択波形データSWを用意することで、例えば、コードの特徴が出やすい構成音(例えば、コードルート、3度、7度等)のみを組み合わせて、合成波形データを生成することが可能となる。
 図9A及び図9Bは、本発明の第2実施形態によるメイン処理を表すフローチャートである。この場合も、このメイン処理は、本発明の第2実施形態による伴奏データ生成装置100の電源投入と同時に起動する。このメイン処理におけるステップSA1~SA10、SA12~SA20の処理は、上記第1実施形態の図5A及び図5BのステップSA1~SA10、SA12~SA20の処理と同じであり、同一符号を付してそれらの説明を省略する。また、第1実施形態のステップSA1~SA10、SA12~SA20に関して変形例として記載した各処理についても、第2実施形態のステップSA1~SA10、SA12~SA20の処理に適用される。
 なお、図9AのステップSA11’においては、後述するステップSA31の処理によって合成波形データが生成されるので、上記第1実施形態のステップSA11の直前コードと現在コードのクリア処理に加えて、合成波形データもクリアされる。また、ステップSA18でNOと判断された場合、及びステップS20でYESと判断された場合には、矢印で示すステップSA32に進む。さらに、ステップS20でNOと判断された場合には、矢印で示すステップSA31に進む。
 ステップSA31では、ステップSA10でロードされた自動伴奏データAAに含まれる各伴奏パート(トラック)について、「現在コード」に設定されているコード情報のコードタイプとコードルートに適合する合成波形データを生成して、「現在の合成波形データ」とする。なお、合成波形データの生成処理については、図10を参照して後述する。
 ステップSA32では、ステップSA10でロードされた自動伴奏データAAに含まれる各伴奏パート(トラック)について、ステップSA31でセットされた「現在の合成波形データ」からタイマに適合する位置のデータを設定された演奏テンポにあわせて読み出し、読み出したデータを基に伴奏データを生成して出力する。その後、ステップSA3に戻り、以降の処理を繰り返す。
 図10は、図9BのステップSA31で実行される合成波形データの生成処理を表すフローチャートである。自動伴奏データAAに複数の伴奏パートが含まれる場合は、この処理を伴奏パート数分繰り返す。なお、ここでは、図6A及び図6Bに示すデータ構造において、入力コード情報が「Dm7」である場合の伴奏パート1に対する処理を例に説明する。
 ステップSB1で、合成波形データ生成処理を開始し、ステップSB2では、図9AのステップSA10でロードされた自動伴奏データAAの現在処理対象となっている伴奏パートに対応付けられている伴奏パターンデータAPの中から、図9BのステップSA19で「現在コード」に設定されたコード情報のコードタイプに対応している伴奏パターンデータAPを抽出し、「現在の伴奏パターンデータ」とする。ここでは、「Dm7」に対応している基本コード用伴奏パターンデータAPaが「現在の伴奏パターンデータ」としてセットされる。
 ステップSB3では、現在処理対象となっている伴奏パートに対応する合成波形データをクリアする。
 ステップSB4では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの基準音高情報(コードルート情報)と、「現在コード」に設定されているコード情報のコードルートとの差分(半音数や度数等で表される音高差)からピッチシフト量を算出して「基本シフト量」とする。なお、「基本シフト量」はマイナスとなる場合もある。基本コード用伴奏パターンデータAPaのコードルートは「C」であり、コード情報のコードルートは「D」であるので、「基本シフト量」は「2(半音数)」である。
 ステップSB5では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの基本波形データBWをステップSB4で算出した「基本シフト量」ピッチシフトして「合成波形データ」に書き込む。すなわち、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの基本波形データBWのコードルートの音高を「現在コード」に設定されているコード情報のコードルートと等しいものにする。したがって、基本コード用伴奏パターンデータAPaのコードルートのピッチ(音高)を2半音数分上げて「D」にピッチシフトする。
 ステップSB6では、「現在コード」に設定されているコード情報のコードタイプの全構成音のうち「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの基本波形データBWで対応していない(基本波形データBWに含まれない)構成音を抽出する。「現在コード」である「m7」の全構成音は「ルート、短3度、完全5度、短7度」であり、基本コード用伴奏パターンデータAPaの基本波形データBWは、「ルート、完全5度」を含むので、ここでは、「短3度」及び「短7度」の構成音が抽出される。
 ステップSB7では、ステップSB6で抽出された基本波形データBWで対応していない(基本波形データBWに含まれない)構成音があるか否かを判断する。抽出した構成音がある場合は、YESの矢印で示すステップSB8に進む。抽出した構成音がない場合は、NOの矢印で示すステップSB9に進み、合成波形データ生成処理を終了して図9BのステップSA32に進む。
 ステップSB8では、ステップSB6で抽出された各構成音に対応した(各構成音を含む)選択波形データSWを「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPから選択し、該選択した選択波形データSWをステップSB4で算出した「基本シフト量」ピッチシフトして「合成波形データ」に書き込まれている基本波形データBWと合成して、新たな「合成波形データ」とする。その後、ステップSB9に進み、合成波形データ生成処理を終了して図9BのステップSA32に進む。ここでは、「短3度」及び「短7度」を含む選択波形データSWを「2半音数」ピッチシフトしたのちに、基本コード用伴奏パターンデータAPaの基本波形データBWを「2半音数」ピッチシフトして書き込まれた「合成波形データ」と合成して、「Dm7」を基準とした伴奏に対応する合成波形データとする。
 なお、図7に示すように、全てのコードルート(12音)のフレーズ波形データPWを用意する場合には、ステップSB2では「現在コード」に設定されているコード情報のコードタイプとコードルートに適合する伴奏パターンデータ(伴奏パターンデータ内のフレーズ波形データPA)を「現在の伴奏パターンデータ」にセットし、ステップSB4、SB5、SB8におけるピッチシフトの処理は省略する。また、コードタイプごとに、全てのコードルート(12音)未満の2以上の複数のコードルートに対応したフレーズ波形データPWを用意する場合には、「現在コード」に設定されているコード情報との音高差が最も少ないコードルートに対応したフレーズ波形データPWを読み出して、音高差の分を「基本シフト量」とするようにすれば良い。なお、この場合、ステップSB2の処理により、「現在コード」に設定されているコード情報(コードルート)との音高差が最も少ないコードルートに対応したフレーズ波形データPWを選択するように処理すればよい。
 また、上記第2実施形態及びその変形においては、ステップSB5,SB8で基本波形データBW及び選択波形データSWを「基本シフト量」ピッチシフトした。そして、ステップSB5、SB8の処理により、前記ピッチシフトした基本波形データBWと選択波形データSWを合成するようにした。しかし、これに代えて、次のようにして合成後の波形データを「基本シフト量」分だけ最終的にピッチシフトするようにしてもよい。すなわち、ステップSB5,SB8では基本波形データBW及び選択波形データSWをピッチシフトしない。そして、ステップSB5、SB8の処理により合成した波形データを、ステップSB8で「基本シフト量」分だけピッチシフトする。
 以上、本発明の第2実施形態によれば、伴奏パターンデータAPに対応付けて、基本波形データBWと選択波形データSWを用意して、それらを合成することにより、複数のコードタイプに対応した合成波形データを生成することができるため、入力されるコードにあわせた自動伴奏が可能となる。
 また、選択波形データSWとして、テンション音等を1音だけ含むフレーズ波形データを用意して、それを合成することが可能であるので、テンション音を含むコードが入力されても対応が可能である。また、コードチェンジに伴うコードタイプの変化にも追従可能である。
 また、全てのコードルート音についてフレーズ波形データPWを用意すれば、ピッチシフトによる音質の劣化を防ぐこともできる。
 さらに、伴奏パターンをフレーズ波形データで用意するため、高音質での自動伴奏が可能となる。また、MIDI音源では発音が困難な特殊な楽器や特殊な音階を利用した伴奏も自動で行うことが可能となる。
c.第3実施形態
 次に、本発明の第3実施形態について説明する。この第3実施形態の伴奏データ生成装置のハードウェア構成も、上述した第1及び第2実施形態に係る伴奏データ生成装置100のハードウェア構成と同じであるので、その説明を省略する。
 図11は、本発明の第3実施形態による自動伴奏データAAの構成の一例を表す概念図である。
 自動伴奏データAAは、1又は複数のパート(トラック)を含んで構成され、各伴奏パートは、少なくとも一つの伴奏パターンデータAPを含んで構成される。伴奏パターンデータAPは、1つのルート波形データRWと複数の選択波形データSWを含んで構成される。自動伴奏データAAは、伴奏パターンデータAPのような実体データに加えて、自動伴奏データの伴奏スタイル名、拍子情報、テンポ情報(フレーズ波形データPWの録音(再生)テンポ)、各伴奏パートの情報等を含む当該自動伴奏データ全体の設定情報を含んでいる。また、複数のセクションで構成される場合は、各セクションのセクション名(イントロ、メイン、エンディング等)、小節数(例えば、1小節、4小節、8小節等)を含んで構成される。
 本発明の第3実施形態による自動伴奏データAAも、例えば、ユーザが図1の演奏操作子22を用いてメロディラインを演奏する場合に、それに合わせて、少なくとも一つの伴奏パート(トラック)の自動伴奏を行うためのデータである。
 この場合も、自動伴奏データAAは、ジャズ、ロック、クラッシック等の音楽ジャンルに対応するとともに各ジャンルごとに複数種類のものが用意されており、識別番号(ID番号)や、伴奏スタイル名等で識別される。本第3実施形態では、複数の自動伴奏データAAが、例えば、図1の記憶装置15又はROM8等に記憶されており、各自動伴奏データAAには、ID番号が付されている(「0001」、「0002」等)。
 各自動伴奏データAAは、通常、複数のリズム種類、音楽ジャンル、テンポ等の伴奏スタイル毎に用意される。また、それぞれの自動伴奏データAAには、イントロ、メイン、フィルイン、エンディング等の楽曲の場面に合わせた複数のセクションが用意される。さらに、それぞれのセクションは、コードトラック、ベーストラック、ドラム(リズム)トラックなどの複数のトラックで構成される。本第3実施形態では、説明の便宜上、自動伴奏データAAは、任意の1つのセクションで構成され、セクションが少なくとも和音を用いた伴奏を行うコードトラックを含む複数の伴奏パート(伴奏パート1(トラック1)~伴奏パートn(トラックn))を含んでいるものとする。
 伴奏パターンデータAPは、所定の基準音高(コードルート)における複数のコードタイプに対応し、それらのコードタイプの構成音を含む1つのルート波形データRWと、1又は複数の選択波形データSWとを含んで構成される。本発明では、このルート波形データRWを基本フレーズ波形データとし、複数の選択波形データSWを選択フレーズ波形データとする。以下、ルート波形データRW及び選択波形データSWの任意の一方又は双方を指すときにはフレーズ波形データPWとする。また、伴奏パターンデータAPは、実体データであるフレーズ波形データPWに加えて、属性情報として、伴奏パターンデータAPの基準音高情報(コードルート情報)、録音テンポ(自動伴奏データAAで一括して定義される場合は省略可)、長さ(時間または小節数等)、識別子(ID)、名前、含まれるフレーズ波形データ数などを保持している。
 ルート波形データRWは、伴奏パターンデータAPが対応しているコードルートを主に用いた1~複数小節の長さの伴奏演奏による楽音をデジタルサンプリングして作成されるフレーズ波形データである。すなわち、ルート波形データRWは、ルート基準のフレーズ波形データである。なお、ルート波形データRWには、コードの構成音以外の音高(非和声音)も含まれる場合がある。
 選択波形データSWは、伴奏パターンデータAPが対応しているコードルートに対して、それぞれ長3度、完全5度、長7度(4声目)の構成音のうちの一つのみを用いた1~複数小節の長さの伴奏演奏による楽音をデジタルサンプリングして作成されるフレーズ波形データである。なお、必要に応じてテンションコード用の構成音である長9度、完全11度、長13度のみをそれぞれ用いた選択波形データSWを用意してもよい。
 ルート波形データRW及び選択波形データSWは、いずれも同一の基準音高(コードルート)を基準に作成されている。本第3実施形態では、音高Cを基準に作成されているが、これに限るものではない。
 フレーズ波形データPW(ルート波形データRW及び選択波形データSW)には、フレーズ波形データPWを特定することが可能な識別子が付与されている。本第3実施形態では、「自動伴奏データAAのID(スタイル番号)-伴奏パート(トラック)番号-コードルートを表す番号(コードルート情報)-構成音情報(当該フレーズ波形データに含まれるコード構成音を表す情報)」の形式で、各フレーズ波形データPWに識別子が付与されている。なお、上記のような識別子を用いる以外の方法で、属性情報を各フレーズ波形データPWに付与するようにしても良い。
 なお、フレーズ波形データPWは、自動伴奏データAA内に記憶されていても良いし、自動伴奏データAAとは別に記憶して、自動伴奏データAA内には、フレーズ波形データPWへのリンク情報LKのみを記憶するようにしても良い。
 なお、図11に示す例では、各フレーズ波形データPWはルート(根音)を「C」として用意されているが、コードルート(根音)は「C」以外でも良く、さらに、一つのコードタイプについて複数(2~12)のコードルート(根音)のフレーズ波形データPWを用意するようにしても良い。例えば、図12に示すように、全てのコードルート(12音)につて、伴奏パターンデータAPを用意することもできる。
 また、図11に示す例では、選択波形データSWとして、長3度(半音距離数4)、完全5度(半音距離数7)、長7度(半音距離数11)に対応したフレーズ波形データを用意したが、これらに代えて、他の度数、例えば、短3度(半音距離数3)、短7度(半音距離数10)に対応したものを用意するようにしてもよい。
 図13は、本発明の第3実施形態によるコードタイプ別半音距離数テーブルの一例を表す概念図である。
 本第3実施形態では、ユーザの演奏操作等により入力されるコード情報のコードルートに応じてルート波形データRWをピッチシフトし、コードルートおよびコードタイプに応じて1又は複数の選択波形データSWをピッチシフトして、該ピッチシフトしたルート波形データRWと、1又は複数の選択波形データSWとを合成して、入力コード情報のコードタイプ及びコードルートを基準とした伴奏フレーズに対応するフレーズ波形データ(合成波形データ)を生成する。
 本第3実施形態では、選択波形データSWは、長3度(半音距離数4)、完全5度(半音距離数7)、長7度(半音距離数11)、(長9度、完全11度、長13度)のみに対応し、その他の構成音に対応させるためにはコードタイプに応じてピッチシフトをする必要がある。したがって、コードルートおよびコードタイプに応じて1又は複数の選択波形データSWをピッチシフトする際に、図13に示すコードタイプ別半音距離数テーブルを参照する。
 コードタイプ別半音距離数テーブルは、コードタイプごとに、コードルートから、コードルート、3度、5度、4声目のコード構成音までの半音距離数を記録したテーブルである。例えば、メジャーコード(Maj)の場合は、コードルート、3度、5度の構成音のコードルートからの半音距離数はそれぞれ、0、4、7となる。この場合、本第3実施形態の選択波形データSWは、長3度(半音距離数4)、完全5度(半音距離数7)に対応したものが用意されているのでコードタイプに応じたピッチシフトは必要がないが、例えば、マイナーセブンス(m7)の場合は、コードルート、3度、5度、4声目(例えば、7度)の構成音のコードルートからの半音距離数は、それぞれ、0、3、7、10となるので、長3度(半音距離数4)及び長7度(半音距離数11)に対応した選択波形データSWのピッチ(音高)をそれぞれ1半音下げる必要があることが、コードタイプ別半音距離数テーブルを参照してわかる。
 なお、テンションコード用の構成音に対応する選択波形データSWを利用する場合には、コードタイプ別半音距離数テーブルに9度、11度、13度の構成音のコードルートからの半音距離を含める必要がある。
 この第3実施形態においても、伴奏データ生成装置100の電源投入により、メイン処理プログラムが起動されて実行される。この第3実施形態に係るメイン処理プログラムは、上記第2実施形態に係る図9A及び図9Bのメイン処理プログラムと同じであるので、その説明を省略する。ただし、ステップSA31で実行される合成波形データの生成処理は、図14A及び図14Bのプログラムに従う。
 図14A及び図14Bは、前記合成波形データの生成処理を表すフローチャートである。自動伴奏データAAに複数の伴奏パートが含まれる場合は、この処理を伴奏パート数分繰り返す。なお、ここでは、図11に示すデータ構造において、入力コード情報が「Dm7」である場合の伴奏パート1に対する処理を例に説明する。
 ステップSC1で、合成波形データ生成処理を開始し、ステップSC2では、図9AのステップSA10でロードされた自動伴奏データAAの現在処理対象となっている伴奏パートに対応付けられている伴奏パターンデータAPを抽出し、「現在の伴奏パターンデータ」とする。
 ステップSC3では、現在処理対象となっている伴奏パートに対応する合成波形データをクリアする。
 ステップSC4では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの基準音高情報(コードルート情報)と「現在コード」に設定されているコード情報のコードルートとの差分(半音距離数)からピッチシフト量を算出して「基本シフト量」とする。なお、「基本シフト量」はマイナスとなる場合もある。基本コード用伴奏パターンデータAPaのコードルートは「C」であり、コード情報のコードルートは「D」であるので、「基本シフト量」は「2(半音距離数)」である。
 ステップSC5では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPのルート波形データRWをステップSC4で算出した「基本シフト量」ピッチシフトして「合成波形データ」に書き込む。すなわち、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPのルート波形データRWのコードルートの音高を「現在コード」に設定されているコード情報のコードルートと等しいものにする。したがって、基本コード用伴奏パターンデータAPaのコードルートのピッチ(音高)を2半音分上げて「D」にピッチシフトする。
 ステップSC6では、「現在コード」に設定されているコード情報のコードタイプにコードルートに対して3度(短3度、長3度、完全4度)の構成音が含まれるか否かを判断する。3度の構成音が含まれる場合には、YESの矢印で示すステップSC7に進み、含まれない場合は、NOの矢印で示すステップSC13に進む。ここでは、「現在コード」に設定されているコード情報のコードタイプは「m7」であり、3度(短3度)の構成音が含まれるのでステップSC7に進む。
 ステップSC7では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの3度の選択波形データSWの基準音(コードルート)からの半音距離数(本第3実施形態では長3度なので「4」)を取得して「パターンの3度」とする。
 ステップSC8では、「現在コード」に設定されているコード情報のコードタイプにおける基準音(コードルート)からの半音距離数を、例えば、図13に示すコードタイプ別半音距離数テーブルを参照して取得し、「コードの3度」とする。ここで、「現在コード」に設定されているコード情報のコードタイプが「m7」であるとすると、3度(短3度)の構成音の半音距離数は「3」である。
 ステップSC9では、ステップSC7でセットした「パターンの3度」とステップSC8でセットした「コードの3度」が同一であるか否かを判断する。同一である場合は、YESの矢印で示すステップSC10に進む。同一でない場合は、NOの矢印で示すステップSC11に進む。「現在コード」に設定されているコード情報のコードタイプが「m7」である場合は、「パターンの3度」は「4」であり、「コードの3度」は「3」であるのでNOの矢印に従いステップSC11に進む。
 ステップSC10では、基本シフト量に0を加算したもの、すなわち基本シフト量を「シフト量」としてセット(「シフト量」=0+「基本シフト量」)し、ステップSC12に進む。
 ステップSC11では、「コードの3度」から「パターンの3度」を減算したものに「基本シフト量」を加算して「シフト量」としてセット(「シフト量」=「コードの3度」-「パターンの3度」+「基本シフト量」)し、ステップSC12に進む。ここでは、「シフト量」=3-4+2=1となる。
 ステップSC12では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの3度の選択波形データSWをステップSC10又はSC11でセットした「シフト量」分ピッチシフトして、「合成波形データ」に書き込まれている基本波形データBWと合成して、新たな「合成波形データ」とする。その後ステップSC13に進む。ここでは、3度の選択波形データSWのピッチ(音高)を1半音上げる。
 ステップSC13では、「現在コード」に設定されているコード情報のコードタイプにコードルートに対して5度(完全5度、減5度、増5度)の構成音が含まれるか否かを判断する。5度の構成音が含まれる場合には、YESの矢印で示すステップSC14に進み、含まれない場合は、NOの矢印で示すステップSC20に進む。ここでは、「現在コード」に設定されているコード情報のコードタイプは「m7」であり、5度(完全5度)の構成音が含まれるのでステップSC14に進む。
 ステップSC14では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの5度の選択波形データSWの基準音(コードルート)からの半音距離数(本第3実施形態では完全5度なので「7」)を取得して「パターンの5度」とする。
 ステップSC15では、「現在コード」に設定されているコード情報のコードタイプにおける基準音(コードルート)からの半音距離数を、例えば、図13に示すコードタイプ別半音距離数テーブルを参照して取得し、「コードの5度」とする。ここで、「現在コード」に設定されているコード情報のコードタイプが「m7」であるとすると、5度(完全5度)の構成音の半音距離数は「7」である。
 ステップSC16では、ステップSC14でセットした「パターンの5度」とステップSC15でセットした「コード5度」が同一であるか否かを判断する。同一である場合は、YESの矢印で示すステップSC17に進む。同一でない場合は、NOの矢印で示すステップSC18に進む。「現在コード」に設定されているコード情報のコードタイプが「m7」である場合は、「パターンの5度」は「7」であり、「コードの5度」も「7」で同一であるのでYESの矢印に従いステップSC17に進む。
 ステップSC17では、基本シフト量に0を加算したもの、すなわち基本シフト量を「シフト量」としてセット(「シフト量」=0+「基本シフト量」)し、ステップSC19に進む。ここでは、「シフト量」=0+2=2となる。
 ステップSC18では、「コードの5度」から「パターンの5度」を減算したものに「基本シフト量」を加算して「シフト量」としてセット(「シフト量」=「コードの5度」-「パターンの5度」+「基本シフト量」)し、ステップSC19に進む。
 ステップSC19では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの5度の選択波形データSWをステップSC10又はSC11でセットした「シフト量」分ピッチシフトして、「合成波形データ」に書き込まれている基本波形データBWと合成して、新たな「合成波形データ」とする。その後ステップSC20に進む。ここでは、5度の選択波形データSWのピッチ(音高)を2半音上げる。
 ステップSC20では、「現在コード」に設定されているコード情報のコードタイプにコードルートに対して4声目(長6度、短7度、長7度、減7度)の構成音が含まれるか否かを判断する。4声目の構成音が含まれる場合には、YESの矢印で示すステップSC21に進み、含まれない場合は、NOの矢印で示すステップSC27に進み、合成波形データ生成処理を終了して図9BのステップSA32に進む。ここでは、「現在コード」に設定されているコード情報のコードタイプは「m7」であり、4声目(短7度)の構成音が含まれるのでステップSC21に進む。
 ステップSC21では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの4声目の選択波形データSWの基準音(コードルート)からの半音距離数(本第3実施形態では長7度なので「11」)を取得して「パターンの4声目」とする。
 ステップSC22では、「現在コード」に設定されているコード情報のコードタイプにおける4声目の構成音の基準音(コードルート)からの半音距離数を、例えば、図13に示すコードタイプ別半音距離数テーブルを参照して取得し、「コードの4声目」とする。ここで、「現在コード」に設定されているコード情報のコードタイプが「m7」であるとすると、4声目(短7度)の構成音の半音距離数は「10」である。
 ステップSC23では、ステップSC21でセットした「パターンの4声目」とステップSC22でセットした「コードの4声目」が同一であるか否かを判断する。同一である場合は、YESの矢印で示すステップSC24に進む。同一でない場合は、NOの矢印で示すステップSC25に進む。「現在コード」に設定されているコード情報のコードタイプが「m7」である場合は、「パターンの4声目」は「11」であり、「コードの4声目」は「10」であるのでNOの矢印に従いステップSC25に進む。
 ステップSC24では、基本シフト量に0を加算したもの、すなわち基本シフト量を「シフト量」としてセット(「シフト量」=0+「基本シフト量」)し、ステップSC26に進む。
 ステップSC25では、「コードの4声目」から「パターンの4声目」を減算したものに「基本シフト量」を加算して「シフト量」としてセット(「シフト量」=「コードの4声目」-「パターンの4声目」+「基本シフト量」)し、ステップSC26に進む。ここでは、「シフト量」=10-11+2=1となる。
 ステップSC26では、「現在の伴奏パターンデータ」にセットされている伴奏パターンデータAPの4声目の選択波形データSWをステップSC24又はSC25でセットした「シフト量」分ピッチシフトして、「合成波形データ」に書き込まれている基本波形データBWと合成して、新たな「合成波形データ」とする。その後、ステップSC27に進み、合成波形データ生成処理を終了して図9BのステップSA32に進む。ここでは、4声目の選択波形データSWのピッチ(音高)を1半音分上げる。
 以上のように、ルート波形データRWは「基本シフト量」分ピッチシフトを行い、選択波形データSWは「基本シフト量」にコードタイプに応じた値を加算(減算)した半音距離数分ピッチシフトを行って、合成することにより、所望のコードルートおよびコードタイプを基準とした伴奏データを得ることができる。
 なお、図12に示すように、全てのコードルート(12音)のフレーズ波形データPWを用意する場合には、ステップSC4における基本シフト量の算出処理、ステップSC5におけるルート波形データRWに対するピッチシフトの処理は省略し、ステップSC10、ステップSC11、ステップSC17、ステップSC18、ステップSC24及びステップSC25において基本シフト量を加算しないようにする。また、全てのコードルート(12音)未満の2以上の複数のコードルートに対応したフレーズ波形データPWを用意する場合には、「現在コード」に設定されているコード情報との音高差が最も少ないコードルートに対応したフレーズ波形データPWを読み出して、前記音高差の分を「基本シフト量」とするようにすれば良い。なお、この場合、ステップSC2の処理により、「現在コード」に設定されているコード情報(コードルート)との音高差が最も少ないコードルートに対応したフレーズ波形データPWを選択するように処理すればよい。
 また、上記第3実施形態においては、ステップSC5でルート波形データRWを「基本シフト量」ピッチシフトした。また、ステップSC10で「シフト量」=0+「基本シフト量」を計算するとともに、ステップSC11で「シフト量」=「コードの3度」-「パターンの3度」+「基本シフト量」を計算し、ステップSC12で3度の選択波形データSWを前記ステップSC10又はステップSC11で計算した「シフト量」分ピッチシフトした。また、ステップSC17で「シフト量」=0+「基本シフト量」を計算するとともに、ステップS18で「シフト量」=「コードの5度」-「パターンの5度」+「基本シフト量」を計算し、ステップSC19で5度の選択波形データSWを前記ステップSC17又はステップSC18で計算した「シフト量」分ピッチシフトした。また、ステップSC24で「シフト量」=0+「基本シフト量」を計算するとともに、ステップSC25で「シフト量」=「コードの4声目」-「パターンの4声目」+「基本シフト量」を計算し、ステップSC26で4声目の選択波形データSWを前記ステップSC24又はステップSC25で計算した「シフト量」分ピッチシフトした。そして、ステップSC5、SC12,SC19,SC26の処理により、前記ピッチシフトしたルート波形データと複数の選択波形データSWを合成するようにした。
 しかし、これに代えて、次のようにして合成後の波形データを「基本シフト量」分だけ最終的にピッチシフトするようにしてもよい。すなわち、ステップSC5では、ルート波形データRWをピッチシフトしない。また、ステップS10の処理を省略して、「コードの3度」と「パターンの3度」が等しい場合には、ステップSC12で3度の選択波形データSWをピッチシフトしないようにし、「コードの3度」と「パターンの3度」が等しくない場合には、ステップS11では「シフト量」=「コードの3度」-「パターンの3度」を計算し、ステップSC12で3度の選択波形データSWを前記計算した「シフト量」分ピッチシフトする。また、ステップS17の処理を省略して、「コードの5度」と「パターンの5度」が等しい場合には、ステップSC19で5度の選択波形データSWをピッチシフトしないようにし、「コードの5度」と「パターンの5度」が等しくない場合には、ステップS18では「シフト量」=「コードの5度」-「パターンの5度」を計算し、ステップSC19で5度の選択波形データSWを前記計算した「シフト量」分ピッチシフトする。また、ステップS24の処理を省略して、「コードの4声目」と「パターンの4声目」が等しい場合には、ステップSC25で4声目度の選択波形データSWをピッチシフトしないようにし、「コードの4声目」と「パターンの4声目」が等しくない場合には、ステップSC25では「シフト量」=「コードの4声目」-「パターンの4声目」を計算し、ステップSC26で4声目の選択波形データSWを前記計算した「シフト量」分ピッチシフトする。そして、ステップSC5、SC12,SC19,SC26の処理により合成した波形データを、ステップSC26で「基本シフト量」分だけピッチシフトする。
 以上、本発明の第3実施形態によれば、伴奏パターンデータAPに対応付けて、ルート波形データRWと選択波形データSWを用意して、選択波形データSWを適宜ピッチシフトしたのちに、それらを合成することにより、複数のコードタイプに対応した合成波形データを生成することができるため、入力されるコードにあわせた自動伴奏が可能となる。
 また、選択波形データSWとして、テンション音等を1音だけ含むフレーズ波形データを用意して、それをピッチシフトしたのちに合成することが可能であるので、テンション音を含むコードが入力されても対応が可能である。また、コードチェンジに伴うコードタイプの変化にも追従可能である。
 また、全てのコードルート音についてフレーズ波形データPWを用意すれば、ピッチシフトによる音質の劣化を防ぐこともできる。
 さらに、伴奏パターンをフレーズ波形データで用意するため、高音質での自動伴奏が可能となる。また、MIDI音源では発音が困難な特殊な楽器や特殊な音階を利用した伴奏も自動で行うことが可能となる。
d.変形例
 以上、第1乃至第3実施形態に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。以下に、本発明の第1乃至第3実施形態に変形例を示す。
 上述の第1乃至第3実施形態では、フレーズ波形データPWの録音テンポを自動伴奏データAAの属性情報として記憶したが、フレーズ波形データPWごとに個々に記憶するようにしても良い。また、実施形態では、1つの録音テンポについてのみフレーズ波形データPWを用意したが、複数種類のテンポについてフレーズ波形データPWを用意してもよい。
 また、本発明の第1乃至第3実施形態は、電子楽器の形態に限らず実施形態に対応するコンピュータプログラム等をインストールした市販のコンピュータ等によって、実施させるようにしてもよい。
 その場合には、各実施形態に対応するコンピュータプログラム等を、CD-ROM等のコンピュータが読み込むことが出来る記憶媒体に記憶させた状態で、ユーザに提供してもよい。また、そのコンピュータ等が、LAN、インターネット、電話回線等の通信ネットワークに接続されている場合には、通信ネットワークを介して、コンピュータプログラムや各種データ等をユーザに提供してもよい。

Claims (32)

  1.  コードタイプとコードルートの組み合わせによって特定されるコードに関するフレーズ波形データを記憶する記憶手段と、
     コードタイプとコードルートを特定するコード情報を取得するコード情報取得手段と、
     前記記憶手段に記憶されているフレーズ波形データを用いて、前記取得したコード情報によって特定されるコードに対応したコード音フレーズの波形データを伴奏データとして生成するコード音フレーズ生成手段と
    を備えた伴奏データ生成装置。
  2.  請求項1に記載した伴奏データ生成装置において、
     前記コードに関するフレーズ波形データを、コード構成音を混合したコード音のフレーズ波形データで構成した伴奏データ生成装置。
  3.  請求項2に記載した伴奏データ生成装置において、
     前記記憶手段は、前記コード音のフレーズ波形データをコードタイプごとに記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応したコード音のフレーズ波形データを前記記憶手段から読み出す読み出し手段と、
     前記取得されたコード情報によって特定されるコードルートと、前記読み出したコード音のフレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出しコード音のフレーズ波形データをピッチシフトしてコード音フレーズの波形データを生成するピッチシフト手段とで構成した伴奏データ生成装置。
  4.  請求項2に記載した伴奏データ生成装置において、
     前記記憶手段は、複数の異なる音高をコードルートとする複数の前記コード音のフレーズ波形データをコードタイプごとに記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応したフレーズ波形データであって、前記取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとするコード音のフレーズ波形データを前記記憶手段から読み出す読み出し手段と、
     前記取得されたコード情報によって特定されるコードルートと、前記読み出したコード音のフレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出したコード音のフレーズ波形データをピッチシフトしてコード音フレーズの波形データを生成するピッチシフト手段とで構成した伴奏データ生成装置。
  5.  請求項2に記載した伴奏データ生成装置において、
     前記記憶手段は、前記コード音のフレーズ波形データをコードタイプ及びコードルートごとに記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプ及びコードルートに対応したコード音のフレーズ波形データを前記記憶手段から読み出してコード音フレーズの波形データを生成する読み出し手段で構成した伴奏データ生成装置。
  6.  請求項1に記載した伴奏データ生成装置において、
     前記コードに関するフレーズ波形データを、
     複数のコードタイプに共通であって少なくともコードルート音のフレーズ波形データを含む基本フレーズ波形データと、
     前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプにそれぞれ対応するとともに前記基本フレーズ波形データに含まれない複数のコード構成音のフレーズ波形データである複数の選択フレーズ波形データとで構成し、
     前記コード音フレーズ生成手段は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出すとともに合成して、コード音フレーズの波形データを生成する伴奏データ生成装置。
  7.  請求項6に記載した伴奏データ生成装置において、
     前記コード音フレーズ生成手段を、
     前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段と、
     前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  8.  請求項6に記載した伴奏データ生成装置において、
     前記コード音フレーズ生成手段を、
     前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段と、
     前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  9.  請求項6に記載した伴奏データ生成装置において、
     前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  10.  請求項6に記載した伴奏データ生成装置において、
     前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段と、
     前記読み出し基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  11.  請求項6に記載した伴奏データ生成装置において、
     前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記取得されたコード情報によって特定されるコードルート及びコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手段と、
     前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  12.  請求項6乃至11のうちのいずれか1つに記載した伴奏データ生成装置において、
     前記基本フレーズ波形データは、コード構成音中のコードルート音と、コードルート音とは異なり前記複数のコードタイプに共通のコード構成音とを混合した楽音のフレーズ波形データである伴奏データ生成装置。
  13.  請求項1に記載した伴奏データ生成装置において、
     前記コードに関するフレーズ波形データを、
     コードルート音のフレーズ波形データである基本フレーズ波形データと、
     前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプに対応するとともに前記基本フレーズ波形データを構成するコードルート音とは異なる複数のコード構成音のうちの一部のコード構成音のフレーズ波形データである選択フレーズ波形データとで構成し、
     前記コード音フレーズ生成手段は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出し、前記読み出した選択フレーズ波形データを前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに応じてピッチシフトし、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する伴奏データ生成装置。
  14.  請求項13に記載した伴奏データ生成装置において、
     前記コード音フレーズ生成手段を、
     前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段と、
     前記取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に加えて、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  15.  請求項13に記載した伴奏データ生成装置において、
     前記コード音フレーズ生成手段を、
     前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  16.  請求項13に記載した伴奏データ生成装置において、
     前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、
     前記コード音波形データ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに応じて選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に加えて、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  17.  請求項13に記載した伴奏データ生成装置において、
     前記記憶手段は、コードルートの異なる複数組の前記基本フレーズ波形データ及び前記複数のフレーズ波形データを記憶しており、
     前記コード音波形データ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートとの音高差が最も少ない音高をコードルートとする1組の前記基本フレーズ波形データ及び複数のフレーズ波形データを選択する選択手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記選択した1組の前記基本フレーズ波形データ及び複数のフレーズ波形データに属する選択フレーズ波形データであって、前記取得されたコード情報によって特定されるコードタイプに応じて選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  18.  請求項13に記載した伴奏データ生成装置において、
     前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、
     前記コード音フレーズ生成手段を、
     前記コード情報取得手段によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手段と、
     前記取得されたコード情報によって特定されるコードルート及びコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手段と、
     前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手段とで構成した伴奏データ生成装置。
  19.  請求項13乃至18のうちのいずれか1つに記載した伴奏データ生成装置において、
     前記選択フレーズ波形データは、少なくともコード構成音中の3度音及び5度音にそれぞれ対応したフレーズ波形データである伴奏データ生成装置。
  20.  請求項1乃至19のうちのいずれか1つに記載した伴奏データ生成装置において、
     前記フレーズ波形データは、所定の小節数分の伴奏フレーズの演奏に対応した楽音を記録したものである伴奏データ生成装置。
  21.  コードタイプとコードルートの組み合わせによって特定されるコードに関するフレーズ波形データを記憶する記憶手段を備えた伴奏データ生成装置に適用され、コンピュータに実行させるための伴奏データ生成プログラムであって、
     コードタイプとコードルートを特定するコード情報を取得するコード情報取得手順と、
     前記記憶手段に記憶されているフレーズ波形データを用いて、前記取得したコード情報によって特定されるコードに対応したコード音フレーズの波形データを伴奏データとして生成するコード音フレーズ生成手順とを含む伴奏データ生成プログラム。
  22.  請求項21に記載した伴奏データ生成プログラムにおいて、
     前記コードに関するフレーズ波形データを、コード構成音を混合したコード音のフレーズ波形データで構成した伴奏データ生成プログラム。
  23.  請求項22に記載した伴奏データ生成プログラムにおいて、
     前記記憶手段は、前記コード音のフレーズ波形データをコードタイプごとに記憶しており、
     前記コード音フレーズ生成手順は、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードタイプに対応したコード音のフレーズ波形データを前記記憶手段から読み出す読み出し手順と、
     前記取得されたコード情報によって特定されるコードルートと、前記読み出したコード音のフレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出したコード音のフレーズ波形データをピッチシフトしてコード音フレーズの波形データを生成するピッチシフト手順とを含む伴奏データプログラム。
  24.  請求項22に記載した伴奏データ生成プログラムにおいて、
     前記記憶手段は、前記コード音のフレーズ波形データをコードタイプ及びコードルートごとに記憶しており、
     前記コード音フレーズ生成手順は、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードタイプ及びコードルートに対応したコード音のフレーズ波形データを前記記憶手段から読み出してコード音フレーズの波形データを生成する読み出し手順を含む伴奏データ生成プログラム。
  25.  請求項21に記載した伴奏データ生成プログラムにおいて、
     前記コードに関するフレーズ波形データを、
     複数のコードタイプに共通であって少なくともコードルート音のフレーズ波形データを含む基本フレーズ波形データと、
     前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプにそれぞれ対応するとともに前記基本フレーズ波形データに含まれない複数のコード構成音のフレーズ波形データである複数の選択フレーズ波形データとで構成し、
     前記コード音フレーズ生成手順は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出すとともに合成して、コード音フレーズの波形データを生成する伴奏データ生成プログラム。
  26.  請求項25に記載した伴奏データ生成プログラムにおいて、
     前記コード音フレーズ生成手順は、
     前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手順によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手順と、
     前記取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手順と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手順とを含む伴奏データ生成プログラム。
  27.  請求項25に記載した伴奏データ生成プログラムにおいて、
     前記コード音フレーズ生成手順は、
     前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手順と、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手順と、
     前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手順とを含む伴奏データ生成プログラム。
  28.  請求項25に記載した伴奏データ生成プログラムにおいて、
     前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、
     前記コード音フレーズ生成手順は、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手順と、
     前記取得されたコード情報によって特定されるコードルート及びコードタイプに対応した選択フレーズ波形データを前記記憶手段から読み出す第2の読み出し手順と、
     前記読み出した基本フレーズ波形データと、前記読み出した選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手順とを含む伴奏データプログラム。
  29.  請求項21に記載した伴奏データ生成プログラムにおいて、
     前記コードに関するフレーズ波形データを、
     コードルート音のフレーズ波形データである基本フレーズ波形データと、
     前記基本フレーズ波形データを構成するコードルート音の音高をコードルートとするコード構成音であって、複数のコードタイプに対応するとともに前記基本フレーズ波形データを構成するコードルート音とは異なる複数のコード構成音のうちの一部のコード構成音のフレーズ波形データである選択フレーズ波形データとで構成し、
     前記コード音フレーズ生成手順は、前記基本フレーズ波形データ及び選択フレーズ波形データを前記記憶手段から読み出し、前記読み出した選択フレーズ波形データを前記コード情報取得手順によって取得されたコード情報によって特定されるコードタイプに応じてピッチシフトし、前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する伴奏データ生成プログラム。
  30.  請求項29に記載した伴奏データ生成プログラムにおいて、
     前記コード音フレーズ生成手順は、
     前記基本フレーズ波形データを前記記憶手段から読み出し、前記コード情報取得手順によって取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じて、前記読み出した基本フレーズ波形データをピッチシフトする第1の読み出し手順と、
     前記取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードルートと前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に加えて、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手順と、
     前記読み出すとともにピッチシフトした基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手順とを含む伴奏データ生成プログラム。
  31.  請求項29に記載した伴奏データ生成プログラムにおいて、
     前記コード音フレーズ生成手順は、
     前記基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手順と、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手順と、
     前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成し、前記合成したフレーズ波形データを、前記取得されたコード情報によって特定されるコードルートと、前記読み出した基本フレーズ波形データを構成するコードルート音の音高との音高差に応じてピッチシフトして、コード音フレーズの波形データを生成する合成手順とを含む伴奏データ生成プログラム。
  32.  請求項29に記載した伴奏データ生成プログラムにおいて、
     前記記憶手段は、前記基本フレーズ波形データ及び複数の選択フレーズ波形データをコードルートごとに記憶しており、
     前記コード音フレーズ生成手順は、
     前記コード情報取得手順によって取得されたコード情報によって特定されるコードルートに対応した基本フレーズ波形データを前記記憶手段から読み出す第1の読み出し手順と、
     前記取得されたコード情報によって特定されるコードルート及びコードタイプに応じて前記選択フレーズ波形データを前記記憶手段から読み出し、前記取得されたコード情報によって特定されるコードタイプに対応したコード構成音の音高と、前記読み出した選択フレーズ波形データを構成するコード構成音の音高との音高差に応じて、前記読み出した選択フレーズ波形データをピッチシフトする第2の読み出し手順と、
     前記読み出した基本フレーズ波形データと、前記読み出すとともにピッチシフトした選択フレーズ波形データとを合成して、コード音フレーズの波形データを生成する合成手順とを含む伴奏データ生成プログラム。
PCT/JP2012/056267 2011-03-25 2012-03-12 伴奏データ生成装置 WO2012132856A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US13/982,476 US9040802B2 (en) 2011-03-25 2012-03-12 Accompaniment data generating apparatus
EP17162770.6A EP3206202B1 (en) 2011-03-25 2012-03-12 Accompaniment data generating apparatus and method
EP12765940.7A EP2690620B1 (en) 2011-03-25 2012-03-12 Accompaniment data generation device
CN201280015176.3A CN103443849B (zh) 2011-03-25 2012-03-12 伴奏数据产生设备
US14/691,094 US9536508B2 (en) 2011-03-25 2015-04-20 Accompaniment data generating apparatus

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2011-067937 2011-03-25
JP2011067937A JP5626062B2 (ja) 2011-03-25 2011-03-25 伴奏データ生成装置及びプログラム
JP2011067935A JP5821229B2 (ja) 2011-03-25 2011-03-25 伴奏データ生成装置及びプログラム
JP2011067936A JP5598397B2 (ja) 2011-03-25 2011-03-25 伴奏データ生成装置及びプログラム
JP2011-067936 2011-03-25
JP2011-067935 2011-03-25

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/982,476 A-371-Of-International US9040802B2 (en) 2011-03-25 2012-03-12 Accompaniment data generating apparatus
US14/691,094 Division US9536508B2 (en) 2011-03-25 2015-04-20 Accompaniment data generating apparatus

Publications (1)

Publication Number Publication Date
WO2012132856A1 true WO2012132856A1 (ja) 2012-10-04

Family

ID=46930593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056267 WO2012132856A1 (ja) 2011-03-25 2012-03-12 伴奏データ生成装置

Country Status (4)

Country Link
US (2) US9040802B2 (ja)
EP (2) EP3206202B1 (ja)
CN (2) CN103443849B (ja)
WO (1) WO2012132856A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9040802B2 (en) * 2011-03-25 2015-05-26 Yamaha Corporation Accompaniment data generating apparatus
JP5598398B2 (ja) * 2011-03-25 2014-10-01 ヤマハ株式会社 伴奏データ生成装置及びプログラム
JP5891656B2 (ja) * 2011-08-31 2016-03-23 ヤマハ株式会社 伴奏データ生成装置及びプログラム
FR3033442B1 (fr) * 2015-03-03 2018-06-08 Jean-Marie Lavallee Dispositif et procede de production numerique d'une oeuvre musicale
CN105161081B (zh) * 2015-08-06 2019-06-04 蔡雨声 一种app哼唱作曲系统及其方法
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
ITUB20156257A1 (it) * 2015-12-04 2017-06-04 Luigi Bruti Sistema per l'elaborazione di un pattern musicale in formato audio, tramite accordi selezionati dall'utente.
JP6583320B2 (ja) * 2017-03-17 2019-10-02 ヤマハ株式会社 自動伴奏装置、自動伴奏プログラムおよび伴奏データ生成方法
WO2019049294A1 (ja) * 2017-09-07 2019-03-14 ヤマハ株式会社 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
US10504498B2 (en) 2017-11-22 2019-12-10 Yousician Oy Real-time jamming assistance for groups of musicians

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6059392A (ja) * 1983-09-12 1985-04-05 ヤマハ株式会社 自動伴奏装置
JP2900753B2 (ja) 1993-06-08 1999-06-02 ヤマハ株式会社 自動伴奏装置
JP2006126697A (ja) * 2004-11-01 2006-05-18 Roland Corp 自動伴奏装置
JP4274272B2 (ja) 2007-08-11 2009-06-03 ヤマハ株式会社 アルペジオ演奏装置
JP2009156914A (ja) * 2007-12-25 2009-07-16 Yamaha Corp 自動伴奏装置及びプログラム

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144788A (en) * 1977-06-08 1979-03-20 Marmon Company Bass note generation system
US4248118A (en) * 1979-01-15 1981-02-03 Norlin Industries, Inc. Harmony recognition technique application
US4433601A (en) * 1979-01-15 1984-02-28 Norlin Industries, Inc. Orchestral accompaniment techniques
JPS5598793A (en) * 1979-01-24 1980-07-28 Nippon Musical Instruments Mfg Automatic accompniment device for electronic musical instrument
JPS564187A (en) * 1979-06-25 1981-01-17 Nippon Musical Instruments Mfg Electronic musical instrument
US4354413A (en) * 1980-01-28 1982-10-19 Nippon Gakki Seizo Kabushiki Kaisha Accompaniment tone generator for electronic musical instrument
US4366739A (en) * 1980-05-21 1983-01-04 Kimball International, Inc. Pedalboard encoded note pattern generation system
JPS5754991A (en) * 1980-09-19 1982-04-01 Nippon Musical Instruments Mfg Automatic performance device
US4467689A (en) * 1982-06-22 1984-08-28 Norlin Industries, Inc. Chord recognition technique
US4542675A (en) * 1983-02-04 1985-09-24 Hall Jr Robert J Automatic tempo set
US4876937A (en) * 1983-09-12 1989-10-31 Yamaha Corporation Apparatus for producing rhythmically aligned tones from stored wave data
US4699039A (en) * 1985-08-26 1987-10-13 Nippon Gakki Seizo Kabushiki Kaisha Automatic musical accompaniment playing system
JPS62186298A (ja) * 1986-02-12 1987-08-14 ヤマハ株式会社 電子楽器の自動伴奏装置
US5070758A (en) * 1986-02-14 1991-12-10 Yamaha Corporation Electronic musical instrument with automatic music performance system
GB2209425A (en) * 1987-09-02 1989-05-10 Fairlight Instr Pty Ltd Music sequencer
JP2638021B2 (ja) * 1987-12-28 1997-08-06 カシオ計算機株式会社 自動伴奏装置
US4939974A (en) * 1987-12-29 1990-07-10 Yamaha Corporation Automatic accompaniment apparatus
JPH01179090A (ja) * 1988-01-06 1989-07-17 Yamaha Corp 自動伴奏装置
US4941387A (en) * 1988-01-19 1990-07-17 Gulbransen, Incorporated Method and apparatus for intelligent chord accompaniment
JP2797112B2 (ja) * 1988-04-25 1998-09-17 カシオ計算機株式会社 電子弦楽器のコード判別装置
US5223659A (en) * 1988-04-25 1993-06-29 Casio Computer Co., Ltd. Electronic musical instrument with automatic accompaniment based on fingerboard fingering
US5056401A (en) * 1988-07-20 1991-10-15 Yamaha Corporation Electronic musical instrument having an automatic tonality designating function
JP2733998B2 (ja) * 1988-09-21 1998-03-30 ヤマハ株式会社 自動調決定装置
US5029507A (en) * 1988-11-18 1991-07-09 Scott J. Bezeau Chord progression finder
US4922797A (en) * 1988-12-12 1990-05-08 Chapman Emmett H Layered voice musical self-accompaniment system
JP2562370B2 (ja) * 1989-12-21 1996-12-11 株式会社河合楽器製作所 自動伴奏装置
US5179241A (en) * 1990-04-09 1993-01-12 Casio Computer Co., Ltd. Apparatus for determining tonality for chord progression
JP2590293B2 (ja) * 1990-05-26 1997-03-12 株式会社河合楽器製作所 伴奏内容検出装置
US5138926A (en) * 1990-09-17 1992-08-18 Roland Corporation Level control system for automatic accompaniment playback
US5391828A (en) * 1990-10-18 1995-02-21 Casio Computer Co., Ltd. Image display, automatic performance apparatus and automatic accompaniment apparatus
JP2586740B2 (ja) * 1990-12-28 1997-03-05 ヤマハ株式会社 電子楽器
US5278348A (en) * 1991-02-01 1994-01-11 Kawai Musical Inst. Mfg. Co., Ltd. Musical-factor data and processing a chord for use in an electronical musical instrument
IT1255446B (it) * 1991-02-25 1995-10-31 Roland Europ Spa Apparato per il riconoscimento di accordi e relativo apparato di esecuzione automatica di accmpagnamenti musicali
JP2551245B2 (ja) * 1991-03-01 1996-11-06 ヤマハ株式会社 自動伴奏装置
JP2526430B2 (ja) * 1991-03-01 1996-08-21 ヤマハ株式会社 自動伴奏装置
JP2705334B2 (ja) * 1991-03-01 1998-01-28 ヤマハ株式会社 自動伴奏装置
IT1247269B (it) * 1991-03-01 1994-12-12 Roland Europ Spa Dispositivo di accompagnamento automatico per strumenti musicali elettronici.
JP2583809B2 (ja) * 1991-03-06 1997-02-19 株式会社河合楽器製作所 電子楽器
JP2640992B2 (ja) * 1991-04-19 1997-08-13 株式会社河合楽器製作所 電子楽器の発音指示装置及び発音指示方法
US5302777A (en) * 1991-06-29 1994-04-12 Casio Computer Co., Ltd. Music apparatus for determining tonality from chord progression for improved accompaniment
JP2722141B2 (ja) * 1991-08-01 1998-03-04 株式会社河合楽器製作所 自動伴奏装置
JPH05188961A (ja) * 1992-01-16 1993-07-30 Roland Corp 自動伴奏装置
FR2691960A1 (fr) 1992-06-04 1993-12-10 Minnesota Mining & Mfg Dispersion colloïdale d'oxyde de vanadium, procédé pour leur préparation et procédéé pour préparer un revêtement antistatique.
JP2624090B2 (ja) * 1992-07-27 1997-06-25 ヤマハ株式会社 自動演奏装置
JP2956867B2 (ja) * 1992-08-31 1999-10-04 ヤマハ株式会社 自動伴奏装置
JP2658767B2 (ja) * 1992-10-13 1997-09-30 ヤマハ株式会社 自動伴奏装置
JP2677146B2 (ja) * 1992-12-17 1997-11-17 ヤマハ株式会社 自動演奏装置
JP2580941B2 (ja) * 1992-12-21 1997-02-12 ヤマハ株式会社 楽音処理装置
US5518408A (en) * 1993-04-06 1996-05-21 Yamaha Corporation Karaoke apparatus sounding instrumental accompaniment and back chorus
US5563361A (en) * 1993-05-31 1996-10-08 Yamaha Corporation Automatic accompaniment apparatus
GB2279172B (en) * 1993-06-17 1996-12-18 Matsushita Electric Ind Co Ltd A karaoke sound processor
US5641928A (en) * 1993-07-07 1997-06-24 Yamaha Corporation Musical instrument having a chord detecting function
JPH07219536A (ja) * 1994-02-03 1995-08-18 Yamaha Corp 自動編曲装置
JPH0816181A (ja) * 1994-06-24 1996-01-19 Roland Corp 効果付加装置
US5668337A (en) * 1995-01-09 1997-09-16 Yamaha Corporation Automatic performance device having a note conversion function
US5777250A (en) * 1995-09-29 1998-07-07 Kawai Musical Instruments Manufacturing Co., Ltd. Electronic musical instrument with semi-automatic playing function
US5859381A (en) * 1996-03-12 1999-01-12 Yamaha Corporation Automatic accompaniment device and method permitting variations of automatic performance on the basis of accompaniment pattern data
US5693903A (en) * 1996-04-04 1997-12-02 Coda Music Technology, Inc. Apparatus and method for analyzing vocal audio data to provide accompaniment to a vocalist
JP3567611B2 (ja) * 1996-04-25 2004-09-22 ヤマハ株式会社 演奏支援装置
US5852252A (en) * 1996-06-20 1998-12-22 Kawai Musical Instruments Manufacturing Co., Ltd. Chord progression input/modification device
US5850051A (en) * 1996-08-15 1998-12-15 Yamaha Corporation Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters
US5942710A (en) * 1997-01-09 1999-08-24 Yamaha Corporation Automatic accompaniment apparatus and method with chord variety progression patterns, and machine readable medium containing program therefore
JP3344297B2 (ja) * 1997-10-22 2002-11-11 ヤマハ株式会社 自動演奏装置および自動演奏プログラムを記録した媒体
US5880391A (en) * 1997-11-26 1999-03-09 Westlund; Robert L. Controller for use with a music sequencer in generating musical chords
JP3407626B2 (ja) * 1997-12-02 2003-05-19 ヤマハ株式会社 演奏練習装置、演奏練習方法及び記録媒体
JP3617323B2 (ja) * 1998-08-25 2005-02-02 ヤマハ株式会社 演奏情報発生装置及びそのための記録媒体
US6153821A (en) * 1999-02-02 2000-11-28 Microsoft Corporation Supporting arbitrary beat patterns in chord-based note sequence generation
JP4117755B2 (ja) * 1999-11-29 2008-07-16 ヤマハ株式会社 演奏情報評価方法、演奏情報評価装置および記録媒体
JP2001242859A (ja) * 1999-12-21 2001-09-07 Casio Comput Co Ltd 自動伴奏装置および自動伴奏方法
JP4237386B2 (ja) * 2000-08-31 2009-03-11 株式会社河合楽器製作所 電子楽器のコード検出装置、コード検出方法及び記録媒体
US6541688B2 (en) * 2000-12-28 2003-04-01 Yamaha Corporation Electronic musical instrument with performance assistance function
JP3753007B2 (ja) * 2001-03-23 2006-03-08 ヤマハ株式会社 演奏支援装置、演奏支援方法並びに記憶媒体
JP3844286B2 (ja) * 2001-10-30 2006-11-08 株式会社河合楽器製作所 電子楽器の自動伴奏装置
US7297859B2 (en) 2002-09-04 2007-11-20 Yamaha Corporation Assistive apparatus, method and computer program for playing music
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
JP5574474B2 (ja) * 2008-09-09 2014-08-20 株式会社河合楽器製作所 アドリブ演奏機能を有する電子楽器およびアドリブ演奏機能用プログラム
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5625235B2 (ja) * 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
US8779268B2 (en) * 2009-06-01 2014-07-15 Music Mastermind, Inc. System and method for producing a more harmonious musical accompaniment
WO2010141504A1 (en) * 2009-06-01 2010-12-09 Music Mastermind, LLC System and method of receiving, analyzing, and editing audio to create musical compositions
WO2012074070A1 (ja) * 2010-12-01 2012-06-07 ヤマハ株式会社 リズムパターンの類似度に基づく楽音データの検索
JP5598398B2 (ja) * 2011-03-25 2014-10-01 ヤマハ株式会社 伴奏データ生成装置及びプログラム
US9040802B2 (en) * 2011-03-25 2015-05-26 Yamaha Corporation Accompaniment data generating apparatus
US8710343B2 (en) * 2011-06-09 2014-04-29 Ujam Inc. Music composition automation including song structure
JP5891656B2 (ja) * 2011-08-31 2016-03-23 ヤマハ株式会社 伴奏データ生成装置及びプログラム
JP6056437B2 (ja) * 2011-12-09 2017-01-11 ヤマハ株式会社 音データ処理装置及びプログラム
JP6175812B2 (ja) * 2013-03-06 2017-08-09 ヤマハ株式会社 楽音情報処理装置及びプログラム
JP6295583B2 (ja) * 2013-10-08 2018-03-20 ヤマハ株式会社 音楽データ生成装置および音楽データ生成方法を実現するためのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6059392A (ja) * 1983-09-12 1985-04-05 ヤマハ株式会社 自動伴奏装置
JP2900753B2 (ja) 1993-06-08 1999-06-02 ヤマハ株式会社 自動伴奏装置
JP2006126697A (ja) * 2004-11-01 2006-05-18 Roland Corp 自動伴奏装置
JP4274272B2 (ja) 2007-08-11 2009-06-03 ヤマハ株式会社 アルペジオ演奏装置
JP2009156914A (ja) * 2007-12-25 2009-07-16 Yamaha Corp 自動伴奏装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2690620A4

Also Published As

Publication number Publication date
US9536508B2 (en) 2017-01-03
EP2690620A1 (en) 2014-01-29
EP3206202B1 (en) 2018-12-12
US20150228260A1 (en) 2015-08-13
US20130305902A1 (en) 2013-11-21
EP2690620B1 (en) 2017-05-10
CN103443849B (zh) 2015-07-15
CN103443849A (zh) 2013-12-11
US9040802B2 (en) 2015-05-26
EP3206202A1 (en) 2017-08-16
EP2690620A4 (en) 2015-06-17
CN104882136A (zh) 2015-09-02
CN104882136B (zh) 2019-05-31

Similar Documents

Publication Publication Date Title
WO2012132856A1 (ja) 伴奏データ生成装置
JP5598398B2 (ja) 伴奏データ生成装置及びプログラム
JP5891656B2 (ja) 伴奏データ生成装置及びプログラム
JP4175337B2 (ja) カラオケ装置
JP5821229B2 (ja) 伴奏データ生成装置及びプログラム
JP5598397B2 (ja) 伴奏データ生成装置及びプログラム
KR20090023912A (ko) 음악 데이터 처리 시스템
JP6414163B2 (ja) 自動演奏装置、自動演奏方法、プログラムおよび電子楽器
JP3680756B2 (ja) 楽曲データ編集装置、方法、及びプログラム
JP5626062B2 (ja) 伴奏データ生成装置及びプログラム
JP3654227B2 (ja) 楽曲データ編集装置及びプログラム
JP4572839B2 (ja) 演奏補助装置及びプログラム
JP4186802B2 (ja) 自動伴奏生成装置及びプログラム
JP3960242B2 (ja) 自動伴奏装置及び自動伴奏プログラム
JP4900233B2 (ja) 自動演奏装置
JP5104418B2 (ja) 自動演奏装置、プログラム
JP3906800B2 (ja) 自動演奏装置及びプログラム
JP5104293B2 (ja) 自動演奏装置
JP5548975B2 (ja) 演奏データ生成装置およびプログラム
JP4067007B2 (ja) アルペジオ演奏装置及びプログラム
JP2008233811A (ja) 電子音楽装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12765940

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13982476

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2012765940

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012765940

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE