WO2007139034A1 - 楽音合成装置及び方法 - Google Patents

楽音合成装置及び方法 Download PDF

Info

Publication number
WO2007139034A1
WO2007139034A1 PCT/JP2007/060732 JP2007060732W WO2007139034A1 WO 2007139034 A1 WO2007139034 A1 WO 2007139034A1 JP 2007060732 W JP2007060732 W JP 2007060732W WO 2007139034 A1 WO2007139034 A1 WO 2007139034A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
waveform data
musical
waveform
sounds
Prior art date
Application number
PCT/JP2007/060732
Other languages
English (en)
French (fr)
Inventor
Eiji Akazawa
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Priority to US12/302,500 priority Critical patent/US7816599B2/en
Publication of WO2007139034A1 publication Critical patent/WO2007139034A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/008Means for controlling the transition from one tone waveform to another
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/095Inter-note articulation aspects, e.g. legato or staccato
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Definitions

  • the present invention relates to a musical tone synthesis apparatus and program for synthesizing a musical tone, a voice or any other sound based on waveform sample data stored in a waveform memory or the like.
  • the present invention relates to a musical sound synthesizing apparatus and method for synthesizing musical sounds without causing any audible delay in the subsequent sound when connecting between sounds without interruption.
  • AEM Article Element Modeling
  • Body system performance module tail system module representing the falling edge of the sound (referred to as tail (or release)), or between consecutive sounds (or between sound parts)
  • a combination of rendition modules corresponding to each section such as a joint section rendition module that represents a connection section (called a joint section) that connects the sound without interrupting the sound with any rendition such as legato.
  • a series of music waveforms can be generated with high quality.
  • the invention described in Patent Document 1 shown below is an example of the AEM technology as described above.
  • the term “musical sound waveform” refers to a sound that is not limited to a musical sound waveform, but may include any other sound waveform, but may be used in a meaningful manner. .
  • the waveform data of the first half of the module corresponding to the area where the pitch of the preceding first sound can be heard mainly compared to the second sound is called the pre-note part, and the preceding note The first pitch is higher than that of the second pitch, and so on.
  • Patent Document 1 JP 2002-287759 A
  • the present invention has been made in view of the above points, and when synthesizing the connected sounds of musical sounds, the power of synthesizing high-quality musical sounds that faithfully represent the timbre changes or the delay in pronunciation on hearing. It is an object of the present invention to provide a musical sound synthesizer and method capable of switching whether to synthesize a musical sound without generating it according to the player's selection, and capable of synthesizing a musical sound with good sound quality.
  • the musical sound synthesizer includes a waveform data of the head corresponding to the rising period of the sound, a waveform data of the tail corresponding to the falling period of the sound, and two adjacent sounds.
  • a storage unit that stores at least waveform data of a connection unit corresponding to a connection section that connects, a mode setting unit that sets either the pronunciation priority mode or the quality priority mode, an acquisition unit that acquires performance information, and the acquisition
  • the storage unit power
  • selecting the waveform data of the connection section and the set mode is the sound generation priority mode
  • the waveform data of the head section and the waveform data of the tail section are selected from the storage section.
  • the waveform data of the selected head unit and the waveform data of the tail unit are selected.
  • a data processing unit that processes at least one of the pitch and the amplitude of the sound so that the sound smoothly transitions as a connection sound, and the waveform data read from the storage unit according to the selection by the data selection unit
  • a tone synthesizer for synthesizing tones according to the processing in the data adding unit, and when the set mode is the pronunciation priority mode, the tone synthesizer reads from the storage unit.
  • the musical sound of the falling section of the preceding sound that precedes in time among the two sounds that precede and follow is read from the storage part.
  • the musical sounds in the rising period of the succeeding subsequent sound of the two sounds that follow each other are synthesized separately according to the processing by the data processing unit, and the falling edges of these synthesized preceding sounds are synthesized.
  • the connection sound is realized by the combination of the musical sound of the section and the musical sound of the rising section of the subsequent sound.
  • the connection for connecting two successive sounds according to the acquired performance information When sound is to be generated, either the sound generation priority mode or the quality priority mode can be set, and if the set mode is the quality priority mode, the waveform data of the connection section is selected to be used.
  • the set mode is the sound generation priority mode
  • the musical tone is synthesized by selecting to use the waveform data of the head portion and the waveform data of the tail portion.
  • the waveform data of the connection part is data corresponding to a connection section connecting two adjacent sounds
  • the waveform data of the head part is data corresponding to the rising section of the sound
  • the waveform data of the tail part is sound data. Data corresponding to the falling interval.
  • the waveform data of the specified head part and the waveform data of the tail part are read out, and the time of the two sounds that are in succession is read based on the read waveform data of the tail part.
  • the musical sound in the falling section of the preceding preceding sound is waveformd in the rising section of the subsequent sound that follows in time out of the two adjacent sounds based on the read waveform data of the head.
  • Each is synthesized separately according to the process.
  • the pitch and Z or amplitude of each waveform data is processed so that the sound transitions smoothly as a connected sound.
  • the waveform data of the tail part and the waveform data of the head part are synthesized in parallel, so there is no need to make fine adjustments at the waveform level of both waveform data. Since it is sufficient to process at least one of the pitch and amplitude so that both transition smoothly, the quality priority mode (when using waveform data at the connection part) is used in the connection section that connects the sounds without interruption. Compared to), the calculation of the system to connect the back sound to the previous sound that is already sounding, and the transition time of the pitch, etc. are not time consuming, thus causing a delay in the later sound pronunciation (latency). I will not let you. In addition, even if the pre-sound and the post-sound are synthesized separately, it is possible to synthesize a high-quality musical sound such as a legato playing method in which the sound transitions smoothly as a connected sound.
  • the performer when synthesizing a musical tone in a connection section connecting at least two sounds that are generated in succession, the performer places importance on the sound quality (quality priority mode). ), You can select whether to place importance on the sound generation timing of the subsequent sound (pronounced priority mode) and synthesize music, and even if the sound generation timing of the subsequent sound is important, the sound quality will be greatly deteriorated. The effect of being able to synthesize musical sounds such as legato Is obtained.
  • the present invention can be configured and implemented not only as an apparatus invention but also as a method invention.
  • the present invention can be implemented in the form of a program of a processor such as a computer or DSP, and can also be implemented in the form of a storage medium storing such a program.
  • FIG. 1 is a block diagram showing a hardware configuration example of an electronic musical instrument to which a musical tone synthesizer according to the present invention is applied.
  • FIG. 2 is a functional block diagram for explaining a tone synthesis function.
  • FIG. 3 is a conceptual diagram for explaining one embodiment of a rendition style module.
  • FIG. 4 is a flowchart showing an example of joint part musical tone synthesis processing.
  • FIG. 5A is a schematic diagram for schematically explaining processing of a waveform by changing a vector, and is a diagram showing an example of changing each vector in a normal tail module.
  • FIG. 5B is a schematic diagram for schematically explaining the waveform processing by changing the vector, and is a diagram showing an example of changing each vector in the joint head module.
  • FIG. 6 is a schematic diagram for schematically explaining the waveform processing by adjusting the arrangement time of the joint head module.
  • FIG. 1 is a block diagram showing a hardware configuration example of an electronic musical instrument to which a musical tone synthesizer according to the present invention is applied.
  • the electronic musical instrument shown here provides performance information (performance event data such as note-on information and note-off information, dynamics information, pitch information, etc.) that is supplied in real time according to the performance operation of the performance controller 5 by the performer.
  • Performance event data such as note-on information and note-off information, dynamics information, pitch information, etc.
  • Musical sound generation that automatically generates music while pre-reading data based on performance information that has been created in advance based on performance information that is supplied in the order of performance. It has a function.
  • the waveform sample data to be used based on the performance information and the mode setting information in the connection section (joint portion) where the two sounds are continuously connected without interruption.
  • waveform data Less than (Hereinafter simply referred to as waveform data), and synthesizing the musical sound according to the selected waveform data, it is possible to create legitimate sounds without causing any delay in audibility as a musical tone in the connected section.
  • Musical sounds such as performance styles can be reproduced with high quality.
  • the tone synthesis in such connection sections will be described later.
  • the electronic musical instrument shown in this embodiment may have hardware other than that shown here, but here, a case where the minimum necessary resources are used will be described.
  • a sound source for example, as waveform data corresponding to a specific performance method for various musical instruments, a part of one sound such as a head section, a tail section, a body section, or between two consecutive sounds is used.
  • the connection section joint section
  • AEM Article Element Modeling
  • AEM Audio Element Modeling
  • the electronic musical instrument shown in FIG. 1 is configured by using a computer, in which “musical tone synthesis processing” that realizes the musical tone synthesis function described above (however, in this embodiment, a joint of them) Only the processing related to the musical tone synthesis in the section will be described later (see Fig. 4).
  • the computer executes a predetermined program (software) that realizes each processing.
  • these processes can be implemented not only in the form of computer software but also in the form of a microprogram processed by a digital signal 'processor (DSP), and not only in the form of this kind of program but also in a discrete form.
  • DSP digital signal 'processor
  • the electronic musical instrument shown in this embodiment executes various processes under the control of a microcomputer comprising a microprocessor unit (CPU) 1, a read-only memory (ROM) 2, and a random access memory (RAM) 3. It has come to be.
  • the CPU 1 controls the operation of the entire electronic musical instrument.
  • a communication bus 1D for example, data and key ROM2, RAM3, external storage device 4, performance control 5, panel control 6, display 7, sound source 8, and interface 9 are connected via a dress bus.
  • the CPU 1 is connected to a timer 1 A that measures interrupt times and various times in timer interrupt processing (interrupt processing).
  • the timer 1 A generates a tempo clock pulse for counting the time interval or setting a performance tempo when playing a musical piece according to predetermined performance information.
  • the frequency of the tempo clock pulse is adjusted by, for example, a tempo setting switch in the panel operator 6.
  • Such a tempo clock pulse from the timer 1A is given to the CPU 1 as a processing timing command or to the CPU 1 as an interrupt command.
  • CPU1 executes various processes according to these instructions.
  • ROM2 is a program that is executed by CPU1 or waveform data that corresponds to the performance method specific to each instrument as a waveform memory (for example, waveforms with timbre changes such as legato performance or waveforms with straight timbre) It stores various data such as.
  • the RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for storing a program currently being executed and related data.
  • a predetermined address area in RAM3 is assigned to each function and used as a register, flag, table, memory, etc.
  • the external storage device 4 includes various data such as performance information that is the basis for automatic performance and waveform data that corresponds to the performance method, and “joint part music synthesis processing” (see Fig.
  • the various control programs are stored. If the control program is stored in the ROM 2, the control program is stored in the external storage device 4 (for example, a node disk) and read into the RAM 3 to store the control program in the ROM 2.
  • CPU1 can be operated in the same way as when In this way, control programs can be easily added and upgraded.
  • the external storage device 4 is not limited to a hard disk (HD), but a flexible disk (FD), a compact disk (CD-ROM 'CD-RAM), a magneto-optical disk (MO), a DVD (Digital Versatile Disk), etc. It is also possible to use a storage device that uses various types of external recording media that are detachable. Alternatively, a semiconductor memory or the like may be used.
  • the performance operator 5 is provided with a plurality of keys for selecting the pitch of a musical tone, such as a keyboard, and has a key switch corresponding to each key.
  • the controller 5 can be used not only for manual performance of musical sounds by the player's own playing, but also as input means for selecting performance information prepared for automatic performance. You can also.
  • the performance operator 5 is not limited to the form of a keyboard or the like, and needless to say, it may be of any form such as a neck with a string for selecting the pitch of a musical tone. Yes.
  • Panel controls (switches, etc.) 6 are, for example, performance information selection switches for selecting performance information to be automatically played, and high-quality musical sounds that faithfully represent timbre changes when synthesizing musical sound connection sections.
  • ⁇ Quality priority mode '' for synthesizing sounds, or ⁇ Sounding priority mode '' for synthesizing musical sounds without causing audible delays in listening for selectively setting mode setting information in either mode
  • It consists of various controls such as a mode selection switch.
  • a mode selection switch to select, set, and control the pitch, timbre, effect, etc.
  • a numeric keypad for numeric data input
  • a keyboard for character data input
  • pointers that specify the positions of various screens displayed on the display 7
  • the display 7 is a display composed of a liquid crystal display panel (LCD) or CRT, for example, and displays various screens according to the switch operation as well as various performance information and waveform data. Information or CPU1 control status can also be displayed.
  • the performer can easily perform setting of various performance parameters, mode setting or selection of automatic performance music used for performance. .
  • the tone generator 8 can simultaneously generate music signals on a plurality of channels, inputs performance information given via the communication bus 1D, synthesizes musical sounds based on the performance information, and generates music signals. Is generated.
  • the electronic musical instrument shown here when the corresponding waveform data is read out from the ROM 2 or the external storage device 4 based on the performance information, the read waveform data is given to the sound source 8 via the bus line. It is buffered as appropriate.
  • the sound source 8 outputs the waveform data stored in the buffer according to a predetermined output sampling frequency.
  • the musical sound signal generated from the sound source 8 is subjected to predetermined digital signal processing by an effect circuit (for example, DSP (Digital Signal Processor)) not shown, and the signal processing is performed.
  • the generated musical sound signal is given to the sound system 8A to be sounded.
  • the interface 9 is, for example, a MIDI interface or a communication interface for transmitting and receiving various kinds of information between the electronic musical instrument and an external performance information generating device (not shown).
  • the MIDI interface supplies MIDI standard performance information from an external performance information generation device (in this case, other MIDI devices, etc.) to the electronic musical instrument, or transmits the electronic musical instrument power MIDI standard performance information to other electronic musical instruments.
  • This is an interface for outputting to MIDI devices.
  • Other MIDI devices can be any device that generates MIDI data in response to user operations, including keyboard, guitar, wind, percussion, and gesture types. It may be a device (or an operation form force).
  • the communication interface is connected to, for example, a wired or wireless communication network (not shown) such as a LAN, the Internet, or a telephone line, and an external performance information generating device (in this case, via the general communication network).
  • a wired or wireless communication network such as a LAN, the Internet, or a telephone line
  • an external performance information generating device in this case, via the general communication network.
  • the electronic musical instrument serving as a client transmits a command requesting downloading of various information such as a control program and performance information to the server computer via the communication interface and the communication network.
  • the server computer distributes the requested various information to the electronic musical instrument via the communication network, and the electronic musical instrument receives the various information via the communication interface to receive
  • the MIDI interface is not limited to using a dedicated MIDI interface, but RS-232C, USB (a universal 'serial' bus), IEEE1394, etc.
  • a general-purpose interface may be used to configure the MIDI interface. In this case, data other than MIDI data may be sent and received simultaneously.
  • other MIDI devices may be able to transmit and receive data other than MIDI data.
  • the data format for performance information is limited to MIDI format data. In other cases, the MIDI interface and other MIDI devices should be configured accordingly.
  • performance information generated in response to the operation of the performance operator 5 by the performer or performance information such as an SMF (Standard MIDI File) format prepared in advance (that is, ROM2 or It has a musical tone synthesis function that can continuously generate musical sounds based on performance information stored in the external storage device 4 or performance information input via the interface 9).
  • SMF Standard MIDI File
  • ROM2 Read Only Memory
  • a musical tone synthesis function that can continuously generate musical sounds based on performance information stored in the external storage device 4 or performance information input via the interface 9.
  • performance information that is sequentially supplied in real time according to the performance progress accompanying the operation of the performance operator 5 by the performer, or a pre-reading order in the order of the performance performance such as a sequencer (not shown).
  • FIG. 2 is a functional block diagram for explaining the tone synthesis function of the electronic musical instrument.
  • the arrows in the figure represent the flow of data.
  • the performance information acquisition unit corresponds to a mechanism for detecting the operation of the performance operator 5 in the electronic musical instrument and a sequencer function built in the electronic musical instrument (performance information stored in the ROM 2 or the external storage device 4). For example, a function for reading out and automatically performing performance) or a function for receiving performance information supplied along with execution of automatic performance by an external sequencer via the interface 9.
  • performance information is sequentially supplied from the input unit (performance information acquisition unit) J2 to the performance style synthesis unit J3 in the order of performance.
  • the input unit J2 there are other input devices such as a performance operator 5 that appropriately generates performance information according to the performance operation by the performer, and a sequencer that supplies the performance information stored in the ROM 2 and the like in the order of performance.
  • the performance information supplied from the input unit J2 includes at least performance event data such as note-on information and note-off information (collectively referred to as note information) and control data such as dynamics information and pitch information. .
  • the performance composition unit J3 When the performance composition unit J3 receives performance event data, control data, etc., it specifies the head and joints according to the note-on information or the tail according to the note-off information. Or by converting the information received as control data, etc., to generate “playing style information” including various information necessary for synthesizing the musical sound. That is, the rendition style synthesis unit J3 selects a rendition style module corresponding to the input dynamics information and pitch information with reference to the data table in the database J 1 (waveform memory), and specifies the selected rendition style module. Add the information to the appropriate “playing style information”.
  • the mode setting information stored in the parameter storage unit J5 is the “sound priority mode” that emphasizes the sound generation timing of the subsequent sound, or the “quality priority mode” V that emphasizes the sound quality.
  • the mode setting information can be set appropriately by the performer using the input unit J2 (more specifically, the mode selection switch).
  • the rendition style synthesizing unit J3 uses only the joint type rendition style module alone if the referenced mode setting information is “quality priority mode”, and if it is “sound priority mode”, For this reason, use the tail system module in combination with the head system module for the back sound of the joint.
  • the tone synthesis unit J4 appropriately reads out the waveform data to be used from the database J1 based on the “playing method information” generated by the rendition style synthesis unit J3, processes the read waveform data as necessary, and then synthesizes the tone. By doing so, a musical tone is output. In other words, the musical tone synthesis unit J4 performs musical tone synthesis while switching waveform data and performing calorie according to the generated “playing style information”.
  • Database J1 reproduces waveforms corresponding to various rendition styles for each instrument, and a large number of original rendition style waveform data and related data groups (referred to as rendition style parameters) as “replay style modules”.
  • rendition style module is a unit of rendition style waveforms that can be processed as one unit in the rendition style waveform synthesis system.
  • a rendition style module is a unit of rendition style waveforms that can be processed as one event.
  • the rendition style modules stored in the database J 1 (waveform memory) described above are used. The process is briefly described with reference to FIG.
  • FIG. 3 is a conceptual diagram for explaining an embodiment of the rendition style module. However, FIG. 3 shows an example of the waveform represented by the rendition style waveform data out of the “rendition style module” only by its envelope.
  • the performance waveform data of various performance style modules includes a head part and a body part depending on the performance characteristics of the performance sound, for example! Some are defined corresponding to sections (head, body, and tail performance modules), and are defined corresponding to joints that are sections between sound and sound. Some (joint performance module).
  • rendition style modules can be broadly classified into several types based on the characteristics of the rendition style or the time part or interval of the performance. For example, the following five types can be mentioned.
  • Normal Head Module A head performance module that handles the rising section (from the silent state) of the sound (from the silent state).
  • Normal tail module A tail-related performance module that handles the falling edge of the sound (to the silent state).
  • Normal Joint Module A joint performance module that handles the connection section (joint part) that connects two sounds with a legato (slurry) (without going through a silent state).
  • Normal body module A body-style performance module that handles the steady section (body part) of the sound from the beginning of the sound to the end of the sound, without the vibrato power.
  • “Joint head module” Unlike the normal head module described above, this is a head performance module that handles the rising period of a sound that realizes the special playing technique, the tongue playing technique.
  • the so-called tanging technique is a characteristic technique that appears characteristically when playing a wind instrument such as a saxophone, for example. It is a performance technique that changes the sound by changing it, and it is pronounced with the sound interrupted for a moment. Similar to this, there is a bow turning performed when playing a stringed instrument such as a violin. So, for such a bow return For the sake of convenience, this technique, including musical expressions that are pronounced so that the sound is interrupted for a moment, is referred to as a tanging technique.
  • rendition style modules are also categorized by original sound source such as player, instrument type, performance genre, etc.
  • one rendition style waveform data corresponding to one rendition style module is stored in the database as a set of a plurality of waveform components rather than being stored in the database as it is.
  • This waveform component is hereinafter referred to as “solid (or vector)” data.
  • vector types corresponding to one rendition style module include the following.
  • the harmonic component and the non-harmonic component are defined by separating the original performance style waveform of interest into a waveform having a pitch harmonic component force and other remaining waveform components.
  • Harmonic component waveform Extracts the characteristics of only the waveform shape with normalized pitch and amplitude from the harmonic component waveform components.
  • Harmonic component amplitude vector Amplitude envelope characteristics (temporal amplitude fluctuation characteristics) extracted from harmonic component waveform components.
  • Pitch vector Harmonic component waveform components extracted from the pitch characteristics (for example, showing temporal pitch fluctuation characteristics based on a certain reference pitch).
  • Waveform of non-harmonic component (Timbre) vector Extracts the characteristics of only the waveform shape (noise waveform) with normalized amplitude from the non-harmonic component waveform components.
  • Amplitude vector of non-harmonic component Amplitude envelope characteristics extracted from the waveform components of non-harmonic components.
  • a time vector indicating the progress of the waveform time axis may be included, but the description thereof is omitted in this embodiment for the sake of convenience.
  • a harmonic waveform vector is combined with a pitch corresponding to the harmonic pitch vector and its time variation characteristics, and with an amplitude corresponding to the harmonic amplitude vector and its time variation characteristics, the harmonic component waveform is synthesized,
  • the non-harmonic waveform vector is combined with the amplitude and time-varying characteristics of the non-harmonic amplitude vector, synthesize the non-harmonic component waveform and add and synthesize the harmonic component waveform and the non-harmonic component waveform.
  • a rendition style waveform that is, a musical sound waveform that shows a final predetermined rendition style characteristic.
  • the tail system performance system when synthesizing musical tones in the joint section, if it is instructed to use the tail system performance module and the head system performance module without using the joint system performance module, the tail system performance system is used. By appropriately changing the vector data of the module and the head system performance module, the sound synthesis is performed after the waveform is processed! (Details will be described later).
  • the rendition style parameters are parameters for controlling the time and level of the waveform related to the rendition style module, and may include one or more types of parameters that are appropriately different depending on the nature of each rendition style module. For example, “normal head module” and “joint head module” include various performance parameters such as absolute pitch and volume immediately after the start of sound generation.
  • the rendition style parameters may be stored in advance in a waveform memory or the like, or may be input by a user input operation, or existing parameters can be appropriately changed by a user operation. May be.
  • a performance style parameter is not given when playing a performance style waveform, a standard performance style parameter may be automatically added. Also, appropriate parameters may be automatically generated and added during the process.
  • FIG. 4 is a flowchart showing one embodiment of the “joint part musical tone synthesis process”.
  • the waveform of the head part and the body part of the previous sound has already been generated by a predetermined “musical tone synthesis process” (not shown). Therefore, by executing this processing following the musical tone synthesis of the head and body parts, the musical tone in the joint section that connects the pre- and post-sounds without the sound being interrupted continues to the body part of the pre-sound. Synthesized.
  • step S1 it is determined whether or not note-on information has been acquired. This step S1 is repeated until note-on information is acquired (NO in step S1).
  • note-on information is obtained (YES in step S1), the previous sound that is already sounding (immediate note) and the new sound that is instructed to start sounding based on the obtained note-on information (current note) )
  • step S2 note-on information for instructing the start of pronunciation of the subsequent sound following the preceding sound is acquired after acquiring the note-off information for instructing the end of the preceding sound, and the preceding sound and the subsequent sound are temporally separated.
  • step S3 in accordance with the above detection, it is determined whether or not the front sound and the rear sound are overlapped, that is, the legato performance method (step S3).
  • Step S3 If the pre- and post-tones overlap and it is determined that it is not in a state, that is, a legato technique (NO in step S3), a single waveform that continuously connects the pre-sound and post-sound In order to synthesize the preceding and following sounds as independent waveforms, The rendition style information instructed to use the normal head module (or even the joint head module) is generated (step S8). Step S9 synthesizes a musical tone according to the generated performance information.
  • the two sounds, the pre-sound and the post-sound are synthesized independently as usual.
  • the normal head module or joint head module
  • the normal head module is simply subjected to pitch shift processing based on the note-on information. If note-off information is received before reception of note-on information and the previous sound is processed using the tail module, the following will be described for each of the front sound tail module and the normal head module. Waveform processing (see Fig. 5 to Fig. 6 to be described later) is not performed, reflecting the pitch and amplitude of the leading and trailing sounds.
  • the force to use the normal head module and whether to use the joint head module are determined by, for example, obtaining the length of time from the note-off time of the preceding sound to the note-on time of the succeeding sound, depending on the obtained time length. Let me judge automatically! ,.
  • step S3 when it is determined that the pre-tone and the post-tone overlap, that is, the legato performance method (YES in step S3), the mode setting information stored in the parameter storage unit J5 is referred to. Whether or not the mode setting information is set to “pronunciation priority mode” is determined (step S4). When the mode setting information is set to “quality priority mode” instead of “pronunciation priority mode” (NO in step S4), rendition style information instructing to use (select) the normal joint module is generated. (Step S7). In step S9, a musical tone is synthesized according to the generated performance information (ie, the selected normal joint module).
  • the “Quality Priority Mode” uses the normal joint module for synthesizing music in the joint section as before, so that high-quality music can be synthesized instead of sacrificing latency. If you are in the mode!
  • step S4 When the mode setting information is set to “pronunciation priority mode” (YES in step S4), the normal tail module for ending the previous sound waveform is used for the previous sound ( While rendition style information instructing to select is generated, on the other hand, rendition style information instructing to use (select) the joint head module for starting the post-sound waveform is generated (step) S5). That is, in this case as well, the two sounds, the front and rear sounds, are synthesized as independent waveforms. However, in this case, the information related to the processing is generated so that the selected normal tail module and joint head module are processed with a waveform that reflects the pitch and amplitude of the front and rear sounds. For each playing style information, step by step (step S6). Step S9 synthesizes a musical tone according to the generated performance information (ie, the selected normal tail module and joint head module).
  • the processing of the waveform refers to, for example, the selected normal tail module and the selected normal tail module according to the sound front-rear relationship between the front sound and the rear sound, such as a pitch difference or a volume difference between the front sound and the rear sound. It is possible to change the amplitude (Amp) vector, pitch (Pitch) vector, and wave (Timbre) vector of each joint head module, and adjust the placement time of each module (details will be described later). By doing so, the quality of the sound (synthesis quality) is prevented from deteriorating compared to the case where the normal joint module is used.
  • ⁇ Sounding priority mode '' uses the normal tail module and joint head module instead of the normal joint module for synthesizing musical sounds in the joint section, and uses these modules as the front and rear sounds.
  • This is an unprecedented mode in which musical sounds can be synthesized without sacrificing quality, in addition to improving latency by processing appropriately according to the context of the sound.
  • the normal tail module and the joint head module are used together, it is possible to reuse these data and to suppress the increase in the storage capacity of the module in the database. is there.
  • the subsequent sound is not affected by the sound of the previous sound, and is independently processed according to the sound of the joint head module (that is, the sound is already generated). No processing is required to connect the previous sound to be pronounced to the subsequent sound In comparison with the case of using the normal joint module, there is a delay in the sound of the aftertone (latency). ) Can be shortened. However, when synthesizing musical tones in the joint section using the normal tail module and the joint head module, the front and rear sounds are not combined as a single continuous wave of the front and rear sounds.
  • the pitch transition from the pre-sound to the post-sound is abrupt compared to when the normal joint module is used, and the connection between the sound and sound is poor and difficult to hear as legato. . Therefore, in order to avoid such inconvenience and improve the connection of the pitch transition of the front sound to the rear sound so that it can be heard as a legato, the above-mentioned “joint part musical sound synthesis process” is connected to the selected normal tail module and joint.
  • the sound of the head module is also synthesized by changing the waveform of each head module according to the sound's context, adjusting the time to arrange each module, and so on.
  • waveform processing will be described.
  • FIG. 5A and 5B are schematic diagrams for schematically explaining the waveform processing by changing the solids.
  • Fig. 5A shows an example of changing the amplitude vector and pitch vector in the normal tail module
  • Fig. 5B shows an example of changing the amplitude vector and pitch vector in the joint head module.
  • the upper row shows before waveform processing
  • the lower row shows after waveform processing.
  • HA is the representative point value sequence of the harmonic component amplitude vector (for example, it consists of three points 0, 1, and 2)
  • HP is the representative point value sequence of the harmonic component pitch vector
  • HT is an example of a harmonic component waveform vector (however, the waveform is shown only by its envelope).
  • FIG. 5 shows examples of vectors for harmonic components. Since the examples of vectors for non-harmonic components are the same as those for harmonic components, illustration and description are omitted. The representative point value sequence is not limited to that shown in the figure.
  • the normal tail module and the joint head module are temporally overlapped to synthesize the musical sound, and the front sound and the rear sound are synthesized separately. Therefore, it is necessary to consider the influence on the musical sound by synthesizing the musical sound by overlapping the modules in time. Therefore, in the range where the pre-sound and the post-sound where the pre-sound and the post-sound are generated simultaneously, the amplitude of the pre-sound is faded out while the amplitude of the pre-sound is faded out.
  • the amount of change in the amplitude vector is based on the pre-acquired and stored performance information of the previous sound and the acquired performance information of the subsequent sound, for example, reflecting the volume difference between the front sound and the rear sound. It is good to decide.
  • the representative point in the amplitude vector of the normal tail module “: HA1” to “HA2” and the joint head module amplitude vector It is better to change the amplitude curve from ⁇ 0 'to ⁇ 1' so that the force is symmetrical with respect to a certain time axis.
  • this is not restrictive.
  • the pitch vector value of the representative point "HP2" is changed compared to before processing, and the representative points "HP1" to "HP2" The pitch curve is changed so that it rises to the right (if the pitch of the subsequent sound is higher than the pitch of the previous sound).
  • the pitch vector value of the representative point ": HP0 '" is changed to move from the representative point "HP0'" to "HP1 '". Force Change the pitch curve so that it rises to the right.
  • the pitch vector of each module is changed so that the pitch shifts from the pitch of the preceding sound to the pitch of the succeeding sound!
  • the pre-sound performance previously acquired and stored is the same as the change of the amplitude vector.
  • the performance information and the acquired performance information of the subsequent sound for example, it may be determined by reflecting the pitch difference between the previous sound and the subsequent sound.
  • a part of the amplitude vector or pitch vector (playing style parameters) is changed and stored in advance according to the comparison of the performance information of the front and rear sounds such as pitch difference and volume difference.
  • the degree of overlap between the front and rear sounds (specifically, the amplitude and pitch transition as described above) is adjusted. By doing this, the sound connection from the pre-sound to the post-sound is improved, and the sound in the range where the pre-sound and the back sound that are heard when these sounds are pronounced can be made to resemble a legato sound. become able to.
  • FIG. 6 is a schematic diagram for schematically explaining the waveform processing by adjusting the arrangement time of the joint head module.
  • the upper row shows before adjustment of the joint head module placement time
  • the lower row shows after adjustment of the joint head module placement time.
  • the waveform shown by the dotted line shows the waveform before processing by changing the amplitude vector
  • the waveform shown by the solid line shows after processing the waveform by changing the amplitude vector.
  • the joint head module used for the subsequent sound is arranged at a time position at which the synthesis is started almost simultaneously with the reception of the note-on information of the subsequent sound.
  • a delay control unit is provided. By the action of this delay control unit, as shown in FIG.
  • the delay control unit receives the note-on information of the subsequent sound for the joint head module used for the subsequent sound when a predetermined condition according to the pitch difference or volume difference between the previous sound and the subsequent sound is satisfied.
  • the joint head module without being placed at the time position where the synthesis starts almost at the same time is timed by a predetermined delay time (time shift amount: At in the figure) than the reception of the note-on information of the subsequent sound.
  • time shift amount At in the figure
  • the delay time At may be a constant value or a variable value.
  • the delay time At having a different value may be set and selected according to the degree of pitch difference or volume difference between the preceding sound and the succeeding sound.
  • the normal tail module and the joint head module described above is not limited to the performance information of the sound as described above, but other sounds (pre-sound or back sound).
  • the waveform may be processed with reference to the performance information.
  • the vector change amount and time shift amount are determined in advance according to the pitch difference and volume difference between the pre-sound and post sound, and the normal tail module and the above-described normal tail module are determined according to the vector change amount and time shift amount. It is possible to change each vector of the joint head module and adjust the arrangement time of each module. Further, the user may be able to appropriately set the vector change amount and the time shift amount in accordance with the volume difference or pitch difference between the previous sound and the subsequent sound.
  • the amplitude curve and pitch curve after the vector change are changed for each instrument, and each vector is changed in accordance with a predetermined change amount according to the type of the instrument. Good. Also, the amplitude curve and pitch curve may be changed by a predetermined change amount according to the key scale or the touch scale as well as the pitch difference or volume difference.
  • the normal tail module In order to further improve the quality of sound (synthesis quality), the normal tail module
  • the pre-note part of the normal joint module that realizes the legato performance can be stored as waveform vector data, and the post-note of the normal joint module that realizes the legato performance as the waveform vector data of the joint head module.
  • the waveform data used in the present invention is not limited to the “playing style module” corresponding to the various playing styles as described above, but may be other types.
  • the waveform data of each module may be generated by simply reading out waveform sample data in an appropriate encoding format such as PCM, DPCM, ADPCM stored in the memory, Alternatively, it goes without saying that various known musical sound waveform synthesis methods such as harmonic synthesis computation, FM computation, AM computation, filter computation, formant synthesis computation, physical model sound source, etc. may be adopted as appropriate. In other words, any sound signal generation method for 8 sound sources can be used.
  • a waveform memory readout method that sequentially reads out musical tone waveform sample value data stored in the waveform memory in accordance with address data that changes in response to the pitch of the musical tone to be generated, or the address data is predetermined as phase angle parameter data.
  • FM method that obtains musical tone waveform sample value data by executing frequency modulation calculation of the above
  • AM method that obtains musical tone waveform sample value data by executing predetermined amplitude modulation computation using the above address data as phase angle parameter data, etc.
  • a known method may be adopted as appropriate.
  • the sound source circuit 8 method is a waveform memory method, FM method, physical model method, harmonic synthesis method, formant synthesis method, VCO + VCF + VCA analog synthesizer method, analog simulation method, etc.
  • the tone generator 8 is not limited to the configuration using the dedicated hardware, and the tone generator circuit 8 may be configured by using a DSP and a microprogram or a CPU and software. Furthermore, it is possible to use a common circuit in a time-sharing manner to form multiple sound channels! /, And each sound channel may be composed of dedicated circuits. ,.
  • the tone synthesis method may be a so-called playback method in which existing performance information is acquired in advance before the actual performance time arrives, and this is analyzed to synthesize the tone.
  • a real-time throat that synthesizes musical sounds based on performance information supplied in real time. It may be that.
  • the pre-tone and post-tone do not overlap, that is, the end of the pre-tone and the start of the post-tone are separated in time (the note-on of the post-tone before the note-off information of the pre-tone is acquired). (When information is acquired), even if each of them is synthesized independently, the amplitude vector and pitch vector of the head system performance module used for the subsequent sound are related to the previous sound. Process the waveform for the rising edge of the sound in the later sound by changing it appropriately.
  • the electronic musical instrument is not limited to the form of a keyboard instrument, and may be any type of form such as a stringed instrument, a wind instrument, or a percussion instrument.
  • the performance controls, indicators, sound sources, etc. are not limited to those built in one electronic musical instrument body, but each is configured separately, and each device is connected using communication means such as a MIDI interface or various networks. It can be said that it can be similarly applied to those configured in the above.
  • the processing program may be supplied to a storage medium such as a magnetic disk, an optical disk or a semiconductor memory, or via a network. Good.
  • the present invention may be applied to an automatic performance device such as a karaoke device or an automatic performance piano, a game device, or a portable communication terminal such as a mobile phone.
  • an automatic performance device such as a karaoke device or an automatic performance piano
  • a game device such as a game device
  • a portable communication terminal such as a mobile phone.
  • the predetermined function as a whole system composed of the terminal and the server computer is provided. May be realized. That is, by using the predetermined software or hardware according to the present invention, the rendition style module to be used for synthesizing the musical sound of the joint section can be switched appropriately according to the mode selection, and the “pronunciation priority mode” is set. If it is selected, any rendition style module can be processed according to the context of the sound to synthesize a musical tone. /.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

 発音優先モード又は品質優先モードのいずれかを設定することができ、相前後する2つの音の間をつなぐ接続音を発生すべきときに、発音優先モードである場合には、記憶されたヘッド部の波形データとテール部の波形データとを選択し、選択したヘッド部の波形データ及びテール部の波形データの少なくとも一方のピッチ及び振幅の少なくとも一方を、接続音として滑らかに音が遷移するように加工し、テール部の波形データに基づき相前後する2つの音のうち時間的に先行する前音の立ち下がり区間の楽音を、ヘッド部の波形データに基づき相前後する2つの音のうち時間的に後続する後音の立ち上がり区間の楽音を、前記加工に従って別々に合成し、これらの合成された前音の立ち下がり区間の楽音と後音の立ち上がり区間の楽音との組み合わせにより接続音を実現する。

Description

明 細 書
楽音合成装置及び方法
技術分野
[0001] この発明は、波形メモリ等に記憶した波形サンプルデータに基づいて、楽音あるい は音声若しくはその他任意の音を合成する楽音合成装置及びプログラムに関する。 特に、音を途切れさせることなく音と音との間をつなぐ場合に、後続する音について 聴感上の発音遅れを生じさせることなく楽音を合成する楽音合成装置及び方法に関 する。
背景技術
[0002] 従来から、自然楽器固有の各種奏法 (若しくはアーティキユレーシヨン)のリアルな 再現とその制御を容易にした技術として、所謂 AEM (Articulation Element Modeling) 技術が知られており、該 AEM技術を用いて高品質な楽音波形を合成することが行わ れている。従来知られているように、 AEM技術においては、音の立ち上がり区間(へッ ド部(又はアタック部)と呼ぶ))を表すヘッド系奏法モジュール、音の定常区間(ボデ ィ部と呼ぶ)を表すボディ系奏法モジュール、音の立ち下がり区間(テール部(又はリ リース部)と呼ぶ))を表すテール系奏法モジュール、あるいは連続する音と音との間( 又は音部分と音部分の間)を例えばレガート奏法などの任意の奏法で音を途切れさ せることなくつなぐ接続区間(ジョイント部と呼ぶ)を表すジョイント系奏法モジュール、 などの各区間に対応する奏法モジュールを時系列的に複数組み合わせることで、一 連の音楽波形を高品質に生成することができるようになつている。上記したような AEM 技術に関連するものとして、例えば下記に示す特許文献 1に記載されている発明が その一例である。なお、この明細書において、楽音波形という場合、音楽的な音の波 形に限るものではなぐ音声ある 、はその他任意の音の波形を含んで 、てもよ ヽ意 味合いで用いるものとする。また、ジョイント系奏法モジュールにおいて、先行する 1 音目の音高が 2音目に比べて聴感上主に聴こえる領域までに相当するモジュール前 半部分の波形データをプレノート部分と呼び、前記先行する 1音目の音高が 2音目に 比べて聴感上主に聴こえる領域以降 (つまり、演奏者が初めて前音から後音へと音 高が遷移して後音の発音が開始されたと聴感上認識することができる所定の切り替 わりポイント以降)に相当するモジュール後半部分の波形データをポストノート部分と 呼んで便宜上区別する。
特許文献 1:特開 2002-287759号公報
ところで、演奏者による演奏操作に応じて順次に楽音を合成するリアルタイム演奏 時においては、上記ジョイント系奏法モジュールを適用して接続区間の楽音 (接続音 )を合成する際に、場合によっては後音のノートオン指示力 後音が聴こえ始めるま でに聴感上の発音遅れ (レーテンシーとも呼ぶ)が生ずることがある。これは、例えば ジョイント系奏法モジュールの音高やアンプ等を、隣接する前音と後音の各奏法モジ ユールにあわせて調整するなどの、既に発音中の前音にこれから発音する後音を滑 らかに繋げて遷移させるための処理に時間が力かること、また前音から後音への音 高遷移にかかる時間(つまりは、プレノート部分の楽音の合成開始力 ポストノート部 分の楽音の合成を開始するまでの時間に相当する)が前音の音高や楽器の種類、 演奏方法などに依存して決まること、 t 、つたジョイント系奏法モジュール固有の特性 によるものである。したがって、演奏者が楽音の音質を落としてでも後音の発音タイミ ングを優先させて(つまりレーテンシーを生じさせることなく)演奏を行 、た 、ような場 合であっても、上記したジョイント系奏法モジュール固有の特性から、従来ではそうし た演奏を行うことが難し力つた。この点、ジョイント系奏法モジュールを用いずに、前 音についてテール系奏法モジュールを、後音についてヘッド系奏法モジュールを適 用して楽音を合成することが考えられるが、そうした場合、従来では前音と後音との間 の音の繋がり感が喪失されてしまうことが起こり問題となる。そこで、音を途切れさせる ことなく音と音との間をつなぐジョイント区間の楽音を合成する場合に、従来通りに後 音の発音タイミングよりも音質を優先させて楽音を合成することができるだけでなぐ 音質よりも後音の発音タイミングを優先させて楽音合成することができ、また発音タイ ミングを優先させた場合であっても、音質をできるだけ悪化させることなく楽音を合成 することのできるものが望まれていた力 そのようなものは従来考えられていな力つた 発明の開示 [0004] 本発明は上述の点に鑑みてなされたもので、楽音の接続音を合成する場合に、音 色変化を忠実に表現した高品質な楽音を合成する力 又は聴感上の発音遅れを生 じさせることなく楽音を合成するかを、演奏者の選択に応じて切り替えることができ、 また音質のよい楽音を合成することができる楽音合成装置及び方法を提供しょうとす るものである。
[0005] 本発明に係る楽音合成装置は、 音の立ち上がり区間に対応したヘッド部の波形 データと、音の立ち下がり区間に対応したテール部の波形データと、相前後する 2つ の音の間をつなぐ接続区間に対応した接続部の波形データとを少なくとも記憶する 記憶部と、発音優先モード又は品質優先モードのいずれかを設定するモード設定部 と、演奏情報を取得する取得部と、前記取得した演奏情報に応じて相前後する 2つ の音の間をつなぐ接続音を発生すべきときに、前記モード設定部によって設定され たモードが品質優先モードである場合には、前記記憶部力 前記接続部の波形デ ータを選択する一方で、前記設定されたモードが発音優先モードである場合には、 前記記憶部から前記ヘッド部の波形データと前記テール部の波形データとを選択す るデータ選択部と、前記設定されたモードが発音優先モードである場合に、前記取 得した演奏情報に基づ!/、て、前記選択したヘッド部の波形データ及び前記テール部 の波形データの少なくとも一方のピッチ及び振幅の少なくとも一方を、接続音として 滑らかに音が遷移するように加工するデータ加工部と、前記データ選択部による選 択に従って前記記憶部から読み出された波形データに基づき、かつ前記データ加 ェ部での加工に従い、楽音を合成する楽音合成部とを具えてなり、前記設定された モードが発音優先モードである場合に、前記楽音合成部では、前記記憶部から読み 出したテール部の波形データに基づき相前後する 2つの音のうち時間的に先行する 前音の立ち下がり区間の楽音を、前記記憶部から読み出したヘッド部の波形データ に基づき相前後する 2つの音のうち時間的に後続する後音の立ち上がり区間の楽音 を、前記データ加工部による加工に従ってそれぞれ別々に合成し、これらの合成さ れた前音の立ち下がり区間の楽音と後音の立ち上がり区間の楽音との組み合わせに より接続音が実現されることを特徴とする。
[0006] 本発明によると、取得した演奏情報に応じて相前後する 2つの音の間をつなぐ接続 音を発生すべきときに、発音優先モード又は品質優先モードのいずれかを設定する ことができ、前記設定されたモードが品質優先モードである場合には接続部の波形 データを使用するよう選択し、前記設定されたモードが発音優先モードである場合に はヘッド部の波形データとテール部の波形データとを使用するよう選択して楽音を合 成する。前記接続部の波形データは相前後する 2つの音の間をつなぐ接続区間に 対応したデータ、前記ヘッド部の波形データは音の立ち上がり区間に対応したデー タ、前記テール部の波形データは音の立ち下がり区間に対応したデータである。発 音優先モードである場合には、指定されたヘッド部の波形データとテール部の波形 データとを記憶部力 読み出し、前記読み出したテール部の波形データに基づき相 前後する 2つの音のうち時間的に先行する前音の立ち下がり区間の楽音を、前記読 み出したヘッド部の波形データに基づき相前後する 2つの音のうち時間的に後続す る後音の立ち上がり区間の楽音を、波形の加工に従いそれぞれ別々に合成する。デ ータ加工部による加工に応じて、各波形データのピッチ及び Z又は振幅を、接続音 として滑らかに音が遷移するように加工される。こうすると、発音優先モードにおいて は、テール部の波形データとヘッド部の波形データとを同時並行的に合成して 、る ので両波形データの波形レベルでの細かな調整が不要であり、ただ、両者が滑らか に遷移するようピッチ及び振幅の少なくとも一方を加工すればよいので、音を途切れ させることなく音と音との間をつなぐ接続区間において、品質優先モード (接続部の 波形データを用いる場合)に比べて、既に発音中の前音に後音をつなげるためのシ ステムの計算や音高の遷移時間などに時間が力からず、従って聴感上における後音 の発音遅れ (レーテンシー)を生じさせることがない。また、前音と後音とを別々に合 成しても、接続音として滑らかに音が遷移するレガート奏法などの楽音を高品質に合 成することがでさるよう〖こなる。
従って、本発明によれば、相前後して発生される少なくとも 2つの音と音との間をつ なぐ接続区間の楽音を合成する場合に、演奏者は音質を重視するか (品質優先モー ド)、後音の発音タイミングを重視するか (発音優先モード)を選択して楽音合成を行 うことができ、また後音の発音タイミングを重視した場合であっても、音質を大きく悪化 させることなくレガート奏法などの楽音を合成することができるようになる、という効果 が得られる。
[0008] 本発明は、装置の発明として構成し、実施することができるのみならず、方法の発 明として構成し実施することができる。また、本発明は、コンピュータまたは DSP等の プロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶 した記憶媒体の形態で実施することもできる。
図面の簡単な説明
[0009] [図 1]この発明に係る楽音合成装置を適用した電子楽器のハードウェア構成例を示 すブロック図である。
[図 2]楽音合成機能を説明するための機能ブロック図である。
[図 3]奏法モジュールの一実施例を説明するための概念図である。
[図 4]ジョイント部楽音合成処理の一実施例を示したフローチャートである。
[図 5A]ベクタの変更による波形の加工を模式的に説明するための概要図であり、ノ 一マルテールモジュールにおける各べクタの変更例を示す図である。
[図 5B]ベクタの変更による波形の加工を模式的に説明するための概要図であって、 ジョイントヘッドモジュールにおける各べクタの変更例を示す図である。
[図 6]ジョイントヘッドモジュールの配置時間の調整による波形の加工について模式 的に説明するための概要図である。
発明を実施するための最良の形態
[0010] 以下、この発明の実施の形態を添付図面に従って詳細に説明する。
図 1は、この発明に係る楽音合成装置を適用した電子楽器のハードウェア構成例 を示すブロック図である。ここに示す電子楽器は、演奏者による演奏操作子 5の演奏 操作に応じてリアルタイムに供給される演奏情報 (ノートオン情報やノートオフ情報な どの演奏イベントデータ、ダイナミクス情報やピッチ情報などの各種コントロールデー タを含む)に基づいて電子的に楽音を発生したり、あるいは演奏進行順に供給される 予め作成済みの演奏情報に基づいて、データの先読みなどを行いながら自動的に 楽音を発生する楽音合成機能を有する。前記楽音合成機能の実行時において、本 発明では 2音が途切れることなく連続的につながつている接続区間(ジョイント部)に っ 、て、演奏情報及びモード設定情報に基づき使用すべき波形サンプルデータ (以 下、単に波形データと呼ぶ)の選択を行い、該選択された波形データに従って楽音 を合成することにより、前記接続区間の楽音として特に聴感上の発音遅れ (レーテン シー)を生じさせることなぐかつレガート奏法などの楽音を高品質に再現することの できるようにしている。こうした接続区間の楽音合成については、後述する。
[0011] なお、この実施例に示す電子楽器はここに示す以外のハードウェアを有する場合も あるが、ここでは必要最小限の資源を用いた場合について説明する。また、音源とし ては、例えば様々な楽器毎の特有な奏法に対応する波形データとして、ヘッド区間、 テール区間、ボディ区間などの 1音についての一部区間、あるいは連続する 2音間に ついての接続区間(ジョイント区間)において、任意の奏法に対応した波形全体を記 憶しておき(奏法モジュール)、これらを時系列的に複数組み合わせることで 1音又は 連続する複数音の楽音を形成することにより、自然楽器固有の各種奏法若しくはァ 一ティキユレーシヨンによる音色変化を忠実に表現した奏法などのリアルな再現とそ の制御を目的とした、従来から知られて 、る AEM (Articulation Element Modeling)と 称する楽音波形制御技術を用いた音源 (所謂 AEM音源)を用いた場合を例にして説 明する。
[0012] 図 1に示した電子楽器はコンピュータを用いて構成されており、そこにおいて、上記 したような楽音合成機能を実現する「楽音合成処理」(ただし、この実施例では、その うちのジョイント区間の楽音合成に関する処理についてのみ後述する:図 4参照)は、 コンピュータが各々の処理を実現する所定のプログラム (ソフトウェア)を実行すること により実施される。勿論、これらの処理はコンピュータソフトウェアの形態に限らず、 D SP (ディジタル ·シグナル 'プロセッサ)によって処理されるマイクロプログラムの形態 でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又 は集積回路若しくは大規模集積回路等を含んで構成された専用ハードウェア装置 の形態で実施してもよい。
[0013] 本実施例に示す電子楽器は、マイクロプロセッサユニット(CPU) 1、リードオンリメモ リ(ROM) 2、ランダムアクセスメモリ(RAM) 3からなるマイクロコンピュータの制御の 下に各種の処理が実行されるようになっている。 CPU1は、この電子楽器全体の動 作を制御するものである。この CPU1に対して、通信バス 1D (例えば、データ及びァ ドレスバスなど)を介して ROM2、 RAM3、外部記憶装置 4、演奏操作子 5、パネル 操作子 6、表示器 7、音源 8、インタフェース 9がそれぞれ接続されている。更に、 CP U1には、タイマ割込み処理 (インタラプト処理)における割込み時間や各種時間を計 時するタイマ 1 Aが接続されている。すなわち、タイマ 1 Aは時間間隔を計数したり、所 定の演奏情報に従つて楽曲を演奏する際の演奏テンポを設定したりするためのテン ポクロックパルスを発生する。このテンポクロックパルスの周波数は、パネル操作子 6 の中の例えばテンポ設定スィッチ等によって調整される。このようなタイマ 1Aからのテ ンポクロックパルスは CPU1に対して処理タイミング命令として与えられたり、あるいは CPU1に対してインタラプト命令として与えられる。 CPU1は、これらの命令に従って 各種処理を実行する。
ROM2は、 CPU1により実行される各種プログラム、あるいは波形メモリとして様々 な楽器毎の特有な奏法に対応する波形データ (例えば、レガート奏法などの音色変 化の有る波形やストレートな音色を持つ波形等)などの各種データを格納するもので ある。 RAM3は、 CPU 1が所定のプログラムを実行する際に発生する各種データを 一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれ に関連するデータを記憶するメモリ等として使用される。 RAM3の所定のアドレス領 域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして 利用される。外部記憶装置 4は、自動演奏の元となる演奏情報や奏法に対応する波 形データなどの各種データや、 CPU 1により実行あるいは参照される「ジョイント部楽 音合成処理」(図 4参照)などの各種制御プログラム等を記憶する。前記 ROM2に制 御プログラムが記憶されて 、な 、場合、この外部記憶装置 4 (例えばノヽードディスク) に制御プログラムを記憶させておき、それを前記 RAM3に読み込むことにより、 RO M2に制御プログラムを記憶している場合と同様の動作を CPU1にさせることができる 。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。な お、外部記憶装置 4はハードディスク (HD)に限られず、フレキシブルディスク (FD) 、コンパクトディスク(CD— ROM 'CD— RAM)、光磁気ディスク(MO)、あるいは D VD (Digital Versatile Disk)等の着脱自在な様々な形態の外部記録媒体を利用する 記憶装置であってもよい。あるいは、半導体メモリなどであってもよい。 [0015] 演奏操作子 5は楽音の音高を選択するための複数の鍵を備えた、例えば鍵盤等の ようなものであり、各鍵に対応してキースィッチを有しており、この演奏操作子 5は演 奏者自身の手弾きによる楽音のマニュアル演奏のために使用できるのは勿論のこと 、自動演奏対象とする予め用意されている演奏情報を選択するなどの入力手段とし て使用することもできる。勿論、演奏操作子 5は鍵盤等の形態に限らず、楽音の音高 を選択するための弦を備えたネック等のような形態のものなど、どのようなものであつ てもよいことは言うまでもない。パネル操作子 (スィッチ等) 6は、例えば自動演奏対象 とする演奏情報を選択するための演奏情報選択スィッチ、楽音の接続区間を合成す る際に、音色変化を忠実に表現した高品質な楽音を合成する「品質優先モード」、又 は聴感上の発音遅れを生じさせることなく楽音を合成する「発音優先モード」、の 、ず れかのモードにモード設定情報を選択的に設定するためのモード選択スィッチ等、 各種の操作子を含んで構成される。勿論、音高、音色、効果等を選択,設定,制御す るために数値データ入力用のテンキーや文字データ入力用のキーボード、あるいは 表示器 7に表示された各種画面の位置を指定するポインタを操作するマウスなどの 各種操作子を含んで 、てもよ 、。表示器 7は例えば液晶表示パネル (LCD)や CRT 等カゝら構成されるディスプレイであって、上記スィッチ操作に応じた各種画面を表示 するのは勿論のこと、演奏情報や波形データなどの各種情報あるいは CPU1の制御 状態などを表示することもできる。演奏者は該表示器 7に表示されるこれらの各種情 報を参照することで、演奏の際に使用する各種演奏パラメータの設定やモード設定 あるいは自動演奏曲の選択などを容易に行うことができる。
[0016] 音源 8は複数のチャンネルで楽音信号の同時発生が可能であり、通信バス 1Dを経 由して与えられた演奏情報を入力し、この演奏情報に基づいて楽音を合成して楽音 信号を発生する。ここに示す電子楽器においては、演奏情報に基づき該当する波形 データが ROM2や外部記憶装置 4など力 読み出されると、該読み出された波形デ ータはバスラインを介して音源 8に与えられて適宜バッファ記憶される。そして、音源 8ではバッファ記憶された波形データを所定の出力サンプリング周波数に従い出力 する。この音源 8から発生された楽音信号は、図示しない効果回路 (例えば、 DSP (Di gital Signal Processor) )などにより所定のディジタル信号処理が施され、該信号処理 された楽音信号はサウンドシステム 8Aに与えられて発音される。
[0017] インタフェース 9は該電子楽器と外部の演奏情報生成機器(図示せず)などとの間 で各種情報を送受するための、例えば MIDIインタフェースや通信インタフェースなど である。 MIDIインタフェースは、外部の演奏情報生成機器 (この場合には、他の MIDI 機器等)から MIDI規格の演奏情報を当該電子楽器へ供給したり、あるいは当該電子 楽器力 MIDI規格の演奏情報を他の MIDI機器等へ出力するためのインタフェース である。他の MIDI機器はユーザによる操作に応じて MIDI形式のデータを発生する機 器であればよぐ鍵盤型、ギター型、管楽器型、打楽器型、身振り型等どのようなタイ プの操作子を具えた (若しくは、操作形態力もなる)機器であってもよい。通信インタ フェースは、例えば LANやインターネット、電話回線等の有線あるいは無線の通信ネ ットワーク(図示せず)に接続されており、概通信ネットワークを介して、外部の演奏情 報生成機器 (この場合には、サーバコンピュータ等)と接続され、当該サーバコンビュ ータから制御プログラムや演奏情報などの各種情報を該電子楽器に取り込むための インタフェースである。すなわち、 ROM2や外部記憶装置 4等に制御プログラムゃ演 奏情報などの各種情報が記憶されていない場合に、サーバコンピュータ力も各種情 報をダウンロードするために用いられる。クライアントとなる電子楽器は、通信インター フェース及び通信ネットワークを介してサーバコンピュータへと制御プログラムや演奏 情報などの各種情報のダウンロードを要求するコマンドを送信する。サーバコンビュ ータは、このコマンドを受け、要求された各種情報を通信ネットワークを介して本電子 楽器へと配信し、本電子楽器が通信インタフェースを介して各種情報を受信して外 部記憶装置 4等に蓄積することにより、ダウンロードが完了する。
[0018] なお、上記インタフェース 9を MIDIインタフェースで構成した場合、該 MIDIインタフ エースは専用の MIDIインタフェースを用いるものに限らず、 RS- 232C、 USB (ュ-バー サル'シリアル'バス)、 IEEE1394等の汎用のインタフェースを用いて MIDIインタフエ ースを構成するようにしてもよい。この場合、 MIDIデータ以外のデータをも同時に送 受信するようにしてもよい。 MIDIインタフェースとして上記したような汎用のインタフエ ースを用いる場合には、他の MIDI機器は MIDIデータ以外のデータも送受信できるよ うにしてよい。勿論、演奏情報に関するデータフォーマットは MIDI形式のデータに限 らず、他の形式であってもよぐその場合は MIDIインタフェースと他の MIDI機器はそ れにあった構成とする。
[0019] 図 1に示した電子楽器においては、演奏者による演奏操作子 5の操作に伴い発生 される演奏情報、あるいは予め用意された SMF (Standard MIDI File)形式等の演奏 情報 (すなわち ROM2又は外部記憶装置 4に記憶された演奏情報、あるいはインタ フェース 9を介して入力される演奏情報)に基づいて楽音を連続的に発生させること のできる楽音合成機能を有する。そして、該楽音合成機能の実行時において、演奏 者による演奏操作子 5の操作に伴う演奏進行に応じてリアルタイムに順次に供給され る演奏情報、あるいはシーケンサー(図示せず)など力 演奏進行順に先読み等を行 いながら順次に供給される演奏情報に基づいて、各区間について新たに使用すベ き波形データの選択を行 ヽ、該選択された波形データに従って楽音を合成するよう にしている。そこで、こうした楽音合成機能の概要について、図 2を用いて説明する。 図 2は、当該電子楽器が有する楽音合成機能を説明するための機能ブロック図であ る。図 2において、図中の矢印はデータの流れを表すものである。なお、演奏情報取 得部に相当するものは、当該電子楽器における演奏操作子 5の操作を検出する機構 及び当該電子楽器が内蔵するシーケンサー機能 (ROM2又は外部記憶装置 4に記 憶された演奏情報を読み出して自動演奏する機能)あるいは外部のシーケンサーで の自動演奏実行に伴って供給される演奏情報をインタフェース 9を介して受信する機 能などである。
[0020] 楽音合成機能の開始に伴い、まず奏法合成部 J3に対して入力部 (演奏情報取得 部) J2から演奏情報が演奏進行順に順次に供給される。入力部 J2としては、演奏者 による演奏操作に応じて適宜に演奏情報を発生する演奏操作子 5や、予め ROM2 等に記憶した演奏情報を演奏進行順に供給するシーケンサーなど、その他の入力 装置がある。こうした入力部 J2から供給される演奏情報は、ノートオン情報やノートォ フ情報 (これらを総称してノート情報と呼ぶ)などの演奏イベントデータと、ダイナミクス 情報やピッチ情報などのコントロールデータとを少なくとも含む。奏法合成部 J3では 演奏イベントデータやコントロールデータなどを受け取ると、例えばノートオン情報に 従 、ヘッド部やジョイント部を特定したり、ノートオフ情報に従 、テール部を特定した り、あるいはコントロールデータとして受け取った情報を変換したりするなどして、楽音 を合成するために必要とされる各種情報を含む「奏法情報」を生成する。すなわち、 奏法合成部 J3はデータベース J 1 (波形メモリ)にあるデータテーブルなどを参照して、 入力されたダイナミクス情報やピッチ情報に対応する奏法モジュールを選択し、該選 択した奏法モジュールを特定する情報を該当する「奏法情報」に加える。
[0021] 上記奏法合成部 J3がジョイント部に適用すべき奏法モジュールを選択する際には、 パラメータ記憶部 J5に記憶済みのモード設定情報を参照する。パラメータ記憶部 J5 に記憶されるモード設定情報は、上述したように後音の発音タイミングを重視する「発 音優先モード」、又は音質を重視する「品質優先モード」 V、ずれかの設定情報であり 、こうしたモード設定情報は演奏者自らが入力部 J2 (詳しくはモード選択スィッチ)を 用いて適宜に設定することができる。奏法合成部 J3は、参照したモード設定情報が「 品質優先モード」であるならばジョイント系奏法モジュールのみを単独で用いるように し、「発音優先モード」であるならばジョイント部の前音に対してテール系奏法モジュ ールを、ジョイント部の後音に対してヘッド系奏法モジュールを組み合わせて用いる ようにする。また、特に「発音優先モード」の場合には前記各奏法モジュールを特定 する情報に加えて、さらにこれらの奏法モジュールを加工する情報を「奏法情報」に 加えるとよい。奏法モジュールの加工についての詳細な説明は後述する(図 5〜図 6 参照)。楽音合成部 J4では奏法合成部 J3が生成した前記「奏法情報」に基づき、デ ータベース J1から使用する波形データを適宜に読み出し、該読み出した波形データ を必要に応じて加工した上で、楽音合成することにより楽音が出力される。すなわち、 楽音合成部 J4では、生成された「奏法情報」に従って波形データの切り替え及びカロ ェを行!、ながら楽音合成を行う。
[0022] データベース J1 (波形メモリ)は、楽器毎の種々の奏法に対応する波形を再生する 多数のオリジナルの奏法波形データとそれに関連するデータ群 (奏法パラメータと呼 ぶ)を「奏法モジュール」として記憶している。 1つの「奏法モジュール」とは、奏法波形 合成システムにお 、て 1つのかたまりとして処理できる奏法波形の単位である。別の 言い方をすると、「奏法モジュール」とは、 1つのイベントとして処理できる奏法波形の 単位である。ここで、上述したデータベース J 1 (波形メモリ)に記憶される奏法モジュ ールについて、図 3を用いて簡単に説明する。図 3は、奏法モジュールの一実施例を 説明するための概念図である。ただし、この図 3では、「奏法モジュール」のうち、奏法 波形データにより表さられる波形の一例をそのエンベロープのみで略示したものを図 示している。
図 3から理解できるように、種々有る奏法モジュールの奏法波形データの中には、 例えば演奏音の奏法的特徴に応じて、ヘッド部やボディ部ある!、はテール部等の 1 音の部分的区間に対応して定義されているものもあれば (ヘッド系、ボディ系、テー ル系の各奏法モジュール)、また、音と音のつなぎの区間であるジョイント部に対応し て定義されて 、るものもある(ジョイント系奏法モジュール)。従来知られて 、るように、 奏法モジュールは、奏法の特徴若しくは演奏の時間的部位又は区間等に基づき、大 きくいくつかの種類に分類することができる。その例を示すと、次の 5種類を挙げるこ とがでさる。
1)「ノーマルヘッドモジュール」: (無音状態からの)音の立ち上がり区間(ヘッド部 )を受け持つヘッド系奏法モジュール。
2)「ノーマルテールモジュール」: (無音状態への)音の立ち下がり区間(テール部 )を受け持つテール系奏法モジュール。
3)「ノーマルジョイントモジュール」: 2つの音を (無音状態を経由せずに)レガート (スラー)で接続する接続区間 (ジョイント部)を受け持つジョイント系奏法モジュール。
4)「ノーマルボディモジュール」: ビブラートの力からない、音の立ち上がり以降か ら立ち下がり以前までの音の定常区間(ボディ部)を受け持つボディ系奏法モジユー ル。
5)「ジョイントヘッドモジュール」: 上記したノーマルヘッドモジュールとは異なり、特 殊な奏法であるタンギング奏法を実現する音の立ち上がり区間を受け持つヘッド系 奏法モジュール。ここで、所謂タンギング奏法と呼ばれる奏法は例えばサックスなど の管楽器の演奏時に特徴的に表れる奏法であって、演奏者がサックスの吹き口を一 且舌で止めることにより音を切った瞬間に指を変えて音を変更する奏法であり、一瞬 だけ音が途切れるようにして発音されるものである。なお、これに似たものとして、バイ ォリンなどの弦楽器の演奏時に行われる弓返しがある。そこで、こうした弓返しなどに よる一瞬だけ音が途切れるようにして発音される音楽的表現などを含め、こうした奏 法をここでは便宜的にタンギング奏法と呼ぶことにしている。
なお、上記 5種類の分類法は本明細書での説明のための一例にすぎず、他の分類 法を採用してもよいし、更に多くの種類が存在してもよい。また、奏法モジュールは、 奏者、楽器の種類、演奏ジャンル等のオリジナル音源別にも分類されるのは勿論で ある。
[0024] この実施例において、 1つの奏法モジュールに対応する 1つの奏法波形データは そのままデータベースに記憶されているのではなぐ複数の波形構成要素の集合か らなるものとしてデータベースに記憶されている。この波形構成要素を、以下、「ベタ タ(又はベクトル)」データと呼ぶ。 1つの奏法モジュールに対応するべクタの種類に は、一例として下記のようなものがある。なお、調和成分及び調和外成分とは、対象 たるオリジナルの奏法波形をピッチ調和成分力 なる波形とそれ以外の残りの波形 成分とに分離することで定義されるものである。
1.調和成分の波形 (Timbre)ベクタ: 調和成分の波形構成要素のうち、ピッチと振 幅をノーマライズした波形形状のみの特徴を抽出したもの。
2.調和成分の振幅 (Amplitude)ベクタ: 調和成分の波形構成要素のうち、振幅ェ ンべロープ特性 (時間的振幅変動特性)を抽出したもの。
3.調和成分のピッチ (Pitch)ベクタ: 調和成分の波形構成要素のうち、ピッチ特性 を抽出したもの(例えば或る基準ピッチを基準にした時間的ピッチ変動特性を示すも の)。
4.調和外成分の波形 (Timbre)ベクタ: 調和外成分の波形構成要素のうち、振幅 をノーマライズした波形形状 (ノイズ的波形)のみの特徴を抽出したもの。
5.調和外成分の振幅 (Amplitude)ベクタ: 調和外成分の波形構成要素のうち、振 幅エンベロープ特性を抽出したもの。
上記のほかに、更に別の種類のベクタ (例えば、波形の時間軸の進行を示す時間 ベクタ)が含まれていてもよいが、便宜上、本実施例ではその説明を省略する。
[0025] 奏法波形の合成に際しては、これらのベクタデータに対して適宜の加工処理を施し て時間軸上に配置することで、奏法波形の各構成要素に対応する波形若しくはェン ベロープを楽音の再生時間軸に沿ってそれぞれ構築し、このようにして時間軸上に 配置された各べクタデータに基づ!/ヽて所定の波形合成処理を行うことで、奏法波形 を生成する。例えば、調和波形べクタに調和ピッチべクタに応じたピッチ及びその時 間変化特性を付与すると共に調和振幅べクタに応じた振幅及びその時間変化特性 を付与することで調和成分の波形を合成し、調和外波形べクタに調和外振幅べクタ に応じた振幅及びその時間変化特性を付与することで調和外成分の波形を合成し、 調和成分の波形と調和外成分の波形とを加算合成することで、最終的な所定の奏法 的特徴を示す奏法波形つまり楽音波形を生成することができる。また、本発明におい ては、ジョイント区間の楽音を合成する際に、ジョイント系奏法モジュールを使用せず にテール系奏法モジュール及びヘッド系奏法モジュールを使用するよう指示された 場合には、テール系奏法モジュール及びヘッド系奏法モジュールの各べクタデータ が適宜に変更されることにより、波形に加工が施された上で楽音合成が行われるよう になって!/、る(詳しくは後述する)。
上記データベース J1において、各波形データと共に付加的に記憶されるデータ群( 奏法パラメータ)としては、例えばその記憶しているオリジナルの波形データのダイナ ミクス値やピッチ情報、あるいは合成時に用いられる基本のクロスフェード長(時間長 )などがある。こうしたデータ群は、「データテーブル」として一括管理することのできる ようにして!/、る。奏法パラメータは当該奏法モジュールに係る波形の時間やレベルな どを制御するためのパラメータであり、各奏法モジュールの性格に応じて適宜異なる 1又は複数種類のパラメータが含まれていてよい。例えば、「ノーマルヘッドモジユー ル」や「ジョイントヘッドモジュール」の場合には、発音開始直後の絶対音高や音量な どの種類の奏法パラメータが含まれて 、てよ 、し、「ノーマルボディモジュール」の場 合には、当該奏法モジュールの絶対音高、ノーマルボディの終了時刻 開始時刻、 ノーマルボディ開始時のダイナミクス、ノーマルボディ終了時のダイナミクスなどの種 類の奏法パラメータが含まれていてよい。また、上記したベクタデータの全部又は一 部が、奏法パラメータに含まれていてよい。こうした奏法パラメータは、波形メモリ等に 予め記憶されて 、てもよ 、し、ある 、はユーザの入力操作によって入力するようにし たり、あるいは既存のパラメータをユーザの操作によって適宜変更できるようになって いたりしてもよい。なお、奏法波形の再生に際して、奏法パラメータが与えられなかつ たような場合には、標準的な奏法パラメータを自動的に付加するようにしてもよい。ま た、処理の過程で、適宜のパラメータが自動的に生成されて付加されるようになって いてもよい。
[0027] 次に、ジョイント区間の楽音を合成する処理について、図 4を用いて説明する。図 4 は、「ジョイント部楽音合成処理」の一実施例を示したフローチャートである。なお、当 該処理の実行前には、既に前音のヘッド部及びボディ部の波形が図示を省略した所 定の「楽音合成処理」によって生成済みである。したがって、このヘッド部及びボディ 部の楽音合成に引き続いて当該処理が実行されることにより、音を途切れさせること なく前音と後音とをつなぐジョイント区間の楽音が前音のボディ部に続いて合成され る。
[0028] ステップ S1は、ノートオン情報を取得したか否かを判定する。このステップ S1は、ノ ートオン情報が取得されるまで繰り返される (ステップ S1の NO)。ノートオン情報を取 得した場合には (ステップ S1の YES)、既に発音中の前音(直前ノート)と、該取得し たノートオン情報に基づき新たに発音開始指示された後音 (現在ノート)とにおける発 音時間の重なりを検出する (ステップ S2)。すなわち、前音の発音終了を指示するノ ートオフ情報の取得後に、該前音に後続する後音の発音開始を指示するノートオン 情報が取得されており、前音と後音とが時間的に重複して発音されることがない状態 (これを前音と後音とが重なっていない状態と呼び、この状態はレガート奏法に該当 しない)である力、あるいは前音の発音終了を指示するノートオフ情報の取得前に、 該前音に後続する後音の発音開始を指示するノートオン情報が取得されており、前 音と後音とが時間的に一部が重複して発音される状態 (これを前音と後音とが重なつ ている状態と呼び、この状態はレガート奏法に該当する)であるかを検出する。ステツ プ S3は、上記検出に従い、前音と後音とが重なっている状態つまりレガート奏法であ るか否かを判定する (ステップ S3)。
[0029] 前音と後音とが重なって 、な 、状態つまりレガート奏法でな 、と判定した場合には( ステップ S3の NO)、前音と後音とを連続的につながった 1つの波形として合成するこ となぐ前音と後音とをそれぞれ独立した波形として合成するために、発音を開始す るためのノーマルヘッドモジュール(又はジョイントヘッドモジュールであってもよ 、)を 使用するように指示した奏法情報を生成する (ステップ S8)。ステップ S9は、生成され た奏法情報に従 、楽音を合成する。
[0030] すなわち、この場合には、従来通りに前音と後音の 2音がそれぞれ独立して合成さ れることになる。つまり、ノーマルヘッドモジュール(又はジョイントヘッドモジュール) に対しては、ノートオン情報に基づき単に波形全体がピッチシフトされる処理が行わ れる。もし、ノートオン情報の受信前にノートオフ情報を受信しており、前音をテール モジュールを使って処理した場合、前音のテールモジュール及び前記ノーマルへッ ドモジュールそれぞれに対して、後述するような前音及び後音の音高や振幅等を反 映しての波形の加工 (後述する図 5〜図 6参照)は行われない。なお、ノーマルヘッド モジュールを使用する力、ジョイントヘッドモジュールを使用するかの判定は、例えば 前音のノートオフ時刻から後音のノートオン時刻までの時間長などを求め、求めた時 間長に応じて自動的に判定させるようにしてよ!、。
[0031] 他方、前音と後音とが重なっている状態つまりレガート奏法であると判定した場合に は (ステップ S3の YES)、パラメータ記憶部 J5に記憶されているモード設定情報を参 照して、該モード設定情報が「発音優先モード」に設定されて!、るか否かを判定する( ステップ S4)。前記モード設定情報が「発音優先モード」でなく「品質優先モード」に 設定されている場合には (ステップ S4の NO)、ノーマルジョイントモジュールを使用( 選択)するように指示する奏法情報を生成する (ステップ S7)。ステップ S9は、生成さ れた奏法情報 (すなわち、選択されたノーマルジョイントモジュール)に従い楽音を合 成する。このように、ジョイント区間の楽音合成のためにノーマルジョイントモジュール を使用する場合には、従来の問題点で挙げたように、後音のノートオン指示力 後音 が聴こえ始めるまでに聴感上の発音遅れが発生する(つまり、相応のレーテンシ一が 発生する)。ただし、音を途切れさせることなく前音と後音との間をつなぐレガート奏法 を実現した楽音を高品質に合成することができる。したがって、「品質優先モード」は 、ジョイント区間の楽音合成のためにノーマルジョイントモジュールを従来通りに使用 することで、レーテンシーを犠牲にする代わりに、高品質な楽音を合成することのでき るようにしたモードであると!/、える。 [0032] 前記モード設定情報が「発音優先モード」に設定されて!、る場合には (ステップ S4 の YES)、前音に対しては前音波形を終了するためのノーマルテールモジュールを 使用(選択)するように指示する奏法情報を生成する一方で、後音に対しては後音波 形を開始するためのジョイントヘッドモジュールを使用(選択)するように指示する奏 法情報を生成する (ステップ S5)。すなわち、この場合にも前音と後音の 2音がそれぞ れ独立した波形として合成されることになる。ただし、この場合には、該選択したノー マルテールモジュールとジョイントヘッドモジュールに対して、前音及び後音の音高 や振幅等を反映した波形の加工を施すよう、該加工に関する情報を前記生成したそ れぞれの奏法情報に対してカ卩える (ステップ S6)。ステップ S9は、生成された奏法情 報(すなわち、選択されたノーマルテールモジュールとジョイントヘッドモジュール)に 従い楽音を合成する。
[0033] 前記波形の加工とは、例えば、前音と後音の音高差や音量差等の前音と後音との 間における音の前後関係に応じて、該選択したノーマルテールモジュールとジョイン トヘッドモジュールそれぞれの振幅(Amp)ベクタ、ピッチ(Pitch)ベクタ、波开 (Timbre )ベクタを変更したり、各モジュールの配置時間を調整したりすることである(詳しくは 後述する)。こうすることによって、ノーマルジョイントモジュールを用いる場合に比べ て、楽音の品質 (合成品質)が悪くなることを防止するようにしている。したがって、「発 音優先モード」は、ジョイント区間の楽音合成のためにノーマルジョイントモジュール を使用せずに、ノーマルテールモジュールとジョイントヘッドモジュールを使用し、ま たこれらのモジュールを前音と後音との音の前後関係に応じて適宜に加工することに より、レーテンシーを改善することに加えて、品質を落とすことなく楽音を合成すること のできるようにした、従来にないモードであるといえる。また、ノーマルテールモジユー ルとジョイントヘッドモジュールをカ卩ェして用いることから、これらのデータを使いまわ すことができ、データベースにおけるモジュールの記憶容量の増加を押えることがで きる、という利点がある。
[0034] 上記した「発音優先モード」の場合、後音については、前音の発音に左右されずに 、ジョイントヘッドモジュールの発音に従って独立して発音処理がなされること(すな わち、既に発音されている前音に、これから発音する後音を繋ぐための処理が不要 である)、ノーマルジョイントモジュールを用いた場合に見られるような音高遷移にか 力る時間がなくなることなどの点から、ノーマルジョイントモジュールを用いる場合に比 ベると後音の発音遅れ (レーテンシー)を短縮することができる。しかし、ノーマルテー ルモジュールとジョイントヘッドモジュールとを用いてジョイント区間の楽音を合成する 場合には、前音と後音とを連続的につながった 1つの波形としてではなぐ前音と後 音とをそれぞれ独立した波形として合成するために、前音から後音への音高遷移が ノーマルジョイントモジュールを使用した時と比べるとどうしても唐突になってしまい、 音と音との繋がりが悪くレガートとして聞こえにくい。そこで、こうした不都合を避け、前 音力も後音への音高遷移のつながりをよくしてレガートとして聞こえるようにするため に、上記した「ジョイント部楽音合成処理」では、選択したノーマルテールモジュール とジョイントヘッドモジュールそれぞれの各べクタを音の前後関係に応じて変更する、 各モジュールを配置する時間を調整する、などの波形の加工を施して力も楽音を合 成するようにしている。以下、波形の加工の一例について説明する。
[0035] ノーマルテールモジュールとジョイントヘッドモジュールにおける振幅(Amp)ベクタ 及びピッチ(pitch)ベクタの変更、及び前記各モジュールの配置時間の調整につ!ヽ て(図 4のステップ S6参照)、図 5及び図 6を用いて説明する。図 5A及び 5Bは、ベタ タの変更による波形の加工を模式的に説明するための概要図である。図 5Aはノーマ ルテールモジュールにおける振幅べクタ及びピッチべクタの変更例を示し、図 5Bは ジョイントヘッドモジュールにおける振幅べクタ及びピッチべクタの変更例を示す。上 段は波形加工前を示すものであり、下段は波形加工後を示すものである。図中にお いて「HA」は調和成分振幅べクタの代表点値列(一例として、 0, 1, 2の 3点からなる ) , 「HP」は調和成分ピッチべクタの代表点値列(一例として、 0, 1, 2の 3点からなる) 、「HT」は調和成分波形べクタの一例(ただし、波形をそのエンベロープのみで略示 している)を示す。なお、この図 5では、調和成分用の各べクタ例を示しており、調和 外成分の各べクタ例については調和成分用と同様であるので、図示及び説明を省 略している。また、代表点値列は図示のものに限らない。
[0036] ノーマルテールモジュールの振幅(Amp)ベクタにっ 、ては、図 5Aに示すように、加 ェ前に比べて代表点「HA2」の振幅値を下げることにより、代表点「HA1」から「HA 2」へと向かう振幅カーブを右下がりとなるように変更して、該変更後の振幅カーブに 従い楽音合成時に前音をフェードアウトさせるようにしている。一方、ジョイントヘッド モジュールの振幅べクタについては、図 5Bに示すように、加工前に比べて代表点「 HA0'」の振幅値を下げることにより、代表点「HA0'」から「HA1 '」へと向かう振幅力 ーブが右上がりとなるように変更して、該変更後の振幅カーブに従い楽音合成時に 後音をフェードインさせるようにしている。すなわち、本発明においてはジョイント区間 の楽音合成のために、ノーマルテールモジュールとジョイントヘッドモジュールとを時 間的に重ねて楽音合成し、前音と後音とを別々に合成するようにしたことから、前記 モジュールを時間的に重ねて楽音合成することによる楽音への影響を考慮する必要 がある。そこで、前音と後音とが同時に発音される前音と後音とが重なり合う範囲にお V、て、前音の振幅をフェードアウトさせる一方で後音の振幅をフェードインさせるよう に、それぞれの振幅べクタを上記のように変更する。こうした振幅べクタの変更量に ついては、予め取得され記憶しておいた前音の演奏情報と取得した後音の演奏情 報とに基づき、例えば前音と後音との音量差を反映して決めるようにするとよい。なお 、振幅べクタを変更する際には、ノーマルテールモジュールの振幅べクタにおける代 表点「: HA1」から「HA2」へと向力う振幅カーブと、ジョイントヘッドモジュールの振幅 ベクタにおける代表点「ΗΑ0'」から「ΗΑ1 '」へと向力う振幅カーブと力 ある所定の 時間軸に対して対称関係となるように変更するとよい。ただし、これに限られるもので ない。
ノーマルテールモジュールのピッチ(pitch)ベクタにっ 、ては、図 5Aに示すように、 加工前に比べて代表点「HP2」のピッチべクタ値を変更し、代表点「HP1」から「HP2 」へと向力 ピッチカーブを右上がりとなるように変更する (ただし、後音の音高が前音 の音高よりも高い場合)。一方、ジョイントヘッドモジュールのピッチべクタについては 、図 5Bに示すように、代表点「: HP0'」のピッチべクタ値を変更し、代表点「HP0'」か ら「HP1 '」へと向力 ピッチカーブを右上がりとなるように変更する。すなわち、前音 の音高から後音の音高へと音高が遷移して!/、くピッチカーブが付加されるように、各 モジュールのピッチべクタをそれぞれ変更する。こうしたピッチべクタの変更量につ ヽ ては、上記振幅べクタの変更と同様にして、予め取得され記憶しておいた前音の演 奏情報と取得した後音の演奏情報とに基づき、例えば前音と後音との音高差を反映 して決めるようにするとよい。このようにして、音高差や音量差などの前音と後音との 演奏情報の比較に応じて、振幅べクタやピッチべクタの一部 (奏法パラメータ)を変更 して、予め記憶された元波形の振幅カーブやピッチカーブを適宜に変化させることに より、前音と後音の各音 (詳しくは、上記したように振幅及び音高遷移)の重なり具合 を調整する。こうすることにより、前音から後音への音のつながりがよくなり、これらの 各音が発音された際に聞こえる前音と後音とが重なり合う範囲にある音をよりレガート 音に似せることができるようになる。
図 6は、ジョイントヘッドモジュールの配置時間の調整による波形の加工について模 式的に説明するための概要図である。上段はジョイントヘッドモジュールの配置時間 の調整前を示すものであり、下段はジョイントヘッドモジュールの配置時間の調整後 を示すものである。なお、図中において点線で図示した波形は上記した振幅べクタ の変更による波形の加工前を示し、実線で図示した波形は上記した振幅べクタの変 更による波形の加工後を示している。本来ならば後音に使用するジョイントヘッドモジ ユールは、後音のノートオン情報の受信とほぼ同時に合成が開始される時間位置に 配置されるが、本発明実施例においては、遅延制御部を設け、この遅延制御部の働 きにより、図 6に示すように、後音の合成開始タイミングを、当該後音のノートオンタイ ミング (発音開始を指示するタイミング)よりも遅らせる制御を行うことができるようにし ている。すなわち、遅延制御部では、前音と後音との音高差や音量差などに従う所 定の条件を満たしたとき、後音に使用するジョイントヘッドモジュールについては後音 のノートオン情報の受信とほぼ同時に合成が開始される時間位置に配置されることな ぐジョイントヘッドモジュールが後音のノートオン情報の受信よりも時間的に所定の 遅延時間(時間ずらし量:図中 A t)だけ時間的に後に合成開始されるように、ジョイン トモジュールの配置時間をノートオン情報の受信時よりも後にずらすように変更する。 そのようにすると、前音と後音との音高差又は音量差が大きい場合など、所定の条件 を満たしたとき、後音の発生開始が幾分遅らされることとなり、前音から後音に移行す る音高又は音量の変化を緩やかにすることができ、接続部における前音から後音へ の移行を滑らかにすることができる。この遅延制御部に相当する処理は、図 4中のス テツプ S6 (カ卩エステップ)で行ってもょ 、し、ある 、はステップ S9 (楽音合成ステップ) で行ってもよいし、あるいは、ステップ S6と S9との間に遅延制御ステップを挿入しても よい。なお、遅延時間 A tは一定値であってもよいし、可変値であってもよい。例えば 、前音と後音との音高差又は音量差の程度に応じて異なる値の遅延時間 A tが設定 Z選択されてよい。
[0039] なお、上記したノーマルテールモジュール及びジョイントヘッドモジュールのうちの どちらか一方のモジュールについてのみ、上記したような当該音の演奏情報だけに 限らずに他の音 (前音又は後音)の演奏情報をも参照して、波形の加工を行うように してあってよい。また、上述した実施例では、ノーマルテールモジュールとジョイントへ ッドモジュールの振幅べクタ及びピッチべクタを変更する際に、各べクタの後音側 (H A2及び HP2)又は前音側 (ΗΑΟ'及び HPO' )の代表点 1つのみを変更して波形を 加工する例を示したがこれに限らず、後音側又は前音側に近い方の代表点の複数 を変更して波形をカ卩ェするようにしてもよい。例えば、図 5に示した例では、 ΗΑ2と Η A1及び ΗΡ2と HP1、 HAO'と HA1 '及び HPO'と HP1 'の各べクタにおける 2点を 変更するなどしてよい。さらには、予め用意された他の振幅べクタやピッチべクタを使 用する(つまり元のベクタとまるごと取りかえる)ようにしてもょ 、。
なお、予め前音と後音との音高差や音量差に応じたベクタ変更量や時間ずらし量 を決めておき、該ベクタ変更量や時間ずらし量に応じて、上記したノーマルテールモ ジュールとジョイントヘッドモジュールの各べクタの変更及び前記各モジュールの配 置時間の調整を行うようにしてあってよい。また、ユーザがベクタ変更量や時間ずらし 量を、前音と後音との音量差や音高差などに対応させて適宜設定できるようにしてあ つてもよい。
[0040] なお、ベクタ変更後の振幅カーブやピッチカーブが楽器ごとにその変化を異ならせ るようにして、楽器の種類に応じた所定の変化量にあわせて各べクタを変更するよう にしてよい。また、音高差や音量差に限らずキースケールゃタツチスケールなどに応 じて、所定の変化量だけ振幅カーブやピッチカーブを変化させるようにしてあってもよ い。
なお、楽音の品質 (合成品質)をより上げるためには、ノーマルテールモジュールの 波形べクタデータとして、レガート奏法を実現するノーマルジョイントモジュールのプ レノート部分を記憶しておけばょ 、し、またジョイントヘッドモジュールの波形べクタデ ータとして、レガート奏法を実現するノーマルジョイントモジュールのポストノート部分 を記憶しておくようにするとよ 、。
[0041] なお、本発明において使用する波形データは、上述したような各種奏法に対応して 「奏法モジュール」化されたものに限らず、その他のタイプのものであってもよい。また 、各モジュールの波形データは、メモリに記憶した PCM、 DPCM、 ADPCMのような 適宜の符号化形式からなる波形サンプルデータを単純に読み出すことで生成される ようなものであってもよいし、あるいは、高調波合成演算や FM演算、 AM演算、フィ ルタ演算、フォルマント合成演算、物理モデル音源など、各種の公知の楽音波形合 成方式を適宜採用したものであってもよいことは言うまでもない。すなわち、音源 8〖こ おける楽音信号発生方式は、いかなるものを用いてもよい。例えば、発生すべき楽音 の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サ ンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを 位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル 値データを求める FM方式、あるいは上記アドレスデータを位相角パラメータデータと して所定の振幅変調演算を実行して楽音波形サンプル値データを求める AM方式 等の公知の方式を適宜採用してよい。このように、音源回路 8の方式は波形メモリ方 式、 FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、 VCO + VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのよ うな方式であってもよい。また、専用のハードウェアを用いて音源 8を構成するものに 限らず、 DSPとマイクロプログラム、あるいは CPUとソフトウェアを用いて音源回路 8を 構成するようにしてもよい。さらに、共通の回路を時分割で使用することによって複数 の発音チャンネルを形成するようなものでもよ!/、し、各発音チャンネルがそれぞれ専 用回路で構成されるようなものであってもよ 、。
[0042] なお、楽音合成の方式としては、既存の演奏情報を本来の演奏時間到来前に先行 取得しておき、これを解析して楽音を合成する所謂プレイバック方式であってもよ 、し 、リアルタイムに供給された演奏情報に基づき楽音を合成するリアルタイム方式のど ちらであってもよい。
なお、前音と後音とが重なっていない、つまり前音の発音終了と後音の発音開始と が時間的に離れており(前音のノートオフ情報を取得する前に後音のノートオン情報 が取得された場合)、それぞれが独立して楽音合成されるような場合であっても、後 音に使用するヘッド系奏法モジュールの振幅べクタやピッチべクタなどを、前音との 関係に基づき適宜に変更することにより、後音における音の立ち上がり区間について 波形を加工するようにしてょ 、。
なお、この楽音合成装置を電子楽器に適用する場合、電子楽器は鍵盤楽器の形 態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。 また、演奏操作子、表示器、音源等を 1つの電子楽器本体に内蔵したものに限らず、 それぞれが別々に構成され、 MIDIインタフェースや各種ネットワーク等の通信手段 を用いて各機器を接続するように構成されたものにも同様に適用できることは ヽうま でもない。また、パソコンとアプリケーションソフトウェアという構成であってもよぐこの 場合処理プログラムを磁気ディスク、光ディスクある ヽは半導体メモリ等の記憶メディ ァカも供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ 装置や自動演奏ピアノのような自動演奏装置、ゲーム装置、携帯電話等の携帯型通 信端末などに適用してもよい。携帯型通信端末に適用した場合、端末のみで所定の 機能が完結している場合に限らず、機能の一部をサーバコンピュータ側に持たせ、 端末とサーバコンピュータとからなるシステム全体として所定の機能を実現するように してもよい。すなわち、本発明に従う所定のソフトウェア又はハードウェアを用いること によって、モード選択に応じてジョイント区間の楽音合成のために使用すべき奏法モ ジュールを適宜に切り替えることができ、また「発音優先モード」が選択された場合に 、奏法モジュールを音の前後関係に応じて加工して力 楽音合成するようにしたもの であればどのようなものであってもよ!/、。

Claims

請求の範囲
[1] 音の立ち上がり区間に対応したヘッド部の波形データと、音の立ち下がり区間に対 応したテール部の波形データと、相前後する 2つの音の間をつなぐ接続区間に対応 した接続部の波形データとを少なくとも記憶する記憶部と、
発音優先モード又は品質優先モードのいずれかを設定するモード設定部と、 演奏情報を取得する取得部と、
前記取得した演奏情報に応じて相前後する 2つの音の間をつなぐ接続音を発生す べきときに、前記モード設定部によって設定されたモードが品質優先モードである場 合には、前記記憶部から前記接続部の波形データを選択する一方で、前記設定さ れたモードが発音優先モードである場合には、前記記憶部から前記ヘッド部の波形 データと前記テール部の波形データとを選択するデータ選択部と、
前記設定されたモードが発音優先モードである場合に、前記取得した演奏情報に 基づ 、て、前記選択したヘッド部の波形データ及び前記テール部の波形データの少 なくとも一方のピッチ及び振幅の少なくとも一方を、接続音として滑らかに音が遷移す るように加工するデータ加工部と、
前記データ選択部による選択に従って前記記憶部から読み出された波形データに 基づき、かつ前記データ加工部での加工に従い、楽音を合成する楽音合成部と を具えてなり、
前記設定されたモードが発音優先モードである場合に、前記楽音合成部では、前 記記憶部から読み出したテール部の波形データに基づき相前後する 2つの音のうち 時間的に先行する前音の立ち下がり区間の楽音を、前記記憶部から読み出したへッ ド部の波形データに基づき相前後する 2つの音のうち時間的に後続する後音の立ち 上がり区間の楽音を、前記データ加工部による加工に従ってそれぞれ別々に合成し 、これらの合成された前音の立ち下がり区間の楽音と後音の立ち上がり区間の楽音と の組み合わせにより接続音が実現されることを特徴とする楽音合成装置。
[2] 前記記憶部は、元波形力 抽出したヘッド部の波形データ及びテール部の波形デ ータと共に、各部毎に元波形の時間的なピッチ変動及び Z又は振幅変動を記憶して なり、前記データ加工部は、後音の演奏情報を参照して前音との音高差及び Z又は 音量差を求め、これに基づき前記記憶したテール部のピッチ変動及び z又は振幅 変動を変更するよう加工する一方、前音の演奏情報を参照して後音との音高差及び
Z又は音量差を求め、これに基づき前記記憶したヘッド部のピッチ変動及び Z又は 振幅変動を変更するよう加工することを特徴とする請求項 1に記載の楽音合成装置。
[3] 前記記憶部は、前記テール部の波形データとして、少なくとも 2つの音が連続する 元波形を前音と後音とが切り替わる所定箇所で分割したうちの、該分割した所定箇 所よりも前の波形力 なるものを記憶することを特徴とする請求項 1又は 2に記載の楽 音合成装置。
[4] 前記記憶部は、前記ヘッド部の波形データとして、少なくとも 2つの音が連続する元 波形を前音と後音とが切り替わる所定箇所で分割したうちの、該分割した所定箇所 以降の波形力 なるものを記憶することを特徴とする請求項 1乃至 3のいずれかに記 載の楽音合成装置。
[5] 前記設定されたモードが発音優先モードである場合に、前記テール部の波形デー タの合成開始タイミングを、前記後音の発音開始指示タイミングよりも遅らせる制御を 行う遅延制御部を更に具備することを特徴とする請求項 1乃至 4のいずれかに記載 の楽音合成装置。
[6] 前記遅延制御部は、前音と後音との音高差又は音量差の程度に応じて、前記合成 開始タイミングの前記後音の発音開始指示タイミングに対する遅れ時間を決定するこ とを特徴とする請求項 5に記載の楽音合成装置。
[7] 前記取得した演奏情報に基づき、相前後する 2つの演奏音がレガート奏法で演奏 されるべきカゝ否かを判定する判定部を更に具備し、
前記データ選択部は、前記判定部がレガート奏法で演奏されるべきと判定したとき 、相前後する 2つの音の間をつなぐ接続音を発生するために、前記接続部の波形デ ータ、あるいは前記ヘッド部の波形データと前記テール部の波形データ、を選択する ことを特徴とする請求項 1乃至 6のいずれかに記載の楽音合成装置。
[8] 音の立ち上がり区間に対応したヘッド部の波形データと、音の立ち下がり区間に対 応したテール部の波形データと、相前後する 2つの音の間をつなぐ接続区間に対応 した接続部の波形データとを少なくとも記憶するメモリを使用して、コンピュータによつ て実行される楽音合成方法であって、
発音優先モード又は品質優先モードのいずれかを設定するステップと、 演奏情報を取得するステップと、
前記取得した演奏情報に応じて相前後する 2つの音の間をつなぐ接続音を発生す べきときに、前記モード設定部によって設定されたモードが品質優先モードである場 合には、前記メモリから前記接続部の波形データを選択する一方で、前記設定され たモードが発音優先モードである場合には、前記メモリから前記ヘッド部の波形デー タと前記テール部の波形データとを選択するステップと、
前記設定されたモードが発音優先モードである場合に、前記取得した演奏情報に 基づ 、て、前記選択したヘッド部の波形データ及び前記テール部の波形データの少 なくとも一方のピッチ及び振幅の少なくとも一方を、接続音として滑らかに音が遷移す るように加工するステップと、
前記選択するステップでの選択に従って前記メモリから読み出された波形データに 基づき、かつ前記加工するステップでの加工に従い、楽音を合成するステップと を具えてなり、
前記設定されたモードが発音優先モードである場合に、前記楽音を合成するステツ プでは、前記メモリから読み出したテール部の波形データに基づき相前後する 2つの 音のうち時間的に先行する前音の立ち下がり区間の楽音を、前記メモリから読み出し たヘッド部の波形データに基づき相前後する 2つの音のうち時間的に後続する後音 の立ち上がり区間の楽音を、前記カ卩ェするステップによる加工に従ってそれぞれ別 々に合成し、これらの合成された前音の立ち下がり区間の楽音と後音の立ち上がり 区間の楽音との組み合わせにより接続音が実現されることを特徴とする楽音合成方 法。
[9] 前記設定されたモードが発音優先モードである場合に、前記テール部の波形デー タの合成開始タイミングを、前記後音の発音開始指示タイミングよりも遅らせる制御を 行うステップを更に具備することを特徴とする請求項 8に記載の楽音合成方法。
[10] コンピュータ読み取り可能な記憶媒体であって、音の立ち上がり区間に対応したへ ッド部の波形データと、音の立ち下がり区間に対応したテール部の波形データと、相 前後する 2つの音の間をつなぐ接続区間に対応した接続部の波形データとを少なく とも記憶するメモリを使用して、コンピュータに楽音合成手順を実行させるためのプロ グラムを記憶してなり、前記楽音合成手順は、
発音優先モード又は品質優先モードのいずれかを設定するステップと、 演奏情報を取得するステップと、
前記取得した演奏情報に応じて相前後する 2つの音の間をつなぐ接続音を発生す べきときに、前記設定されたモードが品質優先モードである場合には、前記メモリから 前記接続部の波形データを選択する一方で、前記設定されたモードが発音優先モ ードである場合には、前記メモリから前記ヘッド部の波形データと前記テール部の波 形データとを選択するステップと、
前記設定されたモードが発音優先モードである場合に、前記取得した演奏情報に 基づ 、て、前記選択したヘッド部の波形データ及び前記テール部の波形データの少 なくとも一方のピッチ及び振幅の少なくとも一方を、接続音として滑らかに音が遷移す るように加工するステップと、
前記選択するステップでの選択に従って前記メモリから読み出された波形データに 基づき、かつ前記加工するステップでの加工に従い、楽音を合成するステップと を具えてなり、
前記設定されたモードが発音優先モードである場合に、前記楽音を合成するステツ プでは、前記メモリから読み出したテール部の波形データに基づき相前後する 2つの 音のうち時間的に先行する前音の立ち下がり区間の楽音を、前記メモリから読み出し たヘッド部の波形データに基づき相前後する 2つの音のうち時間的に後続する後音 の立ち上がり区間の楽音を、前記カ卩ェするステップによる加工に従ってそれぞれ別 々に合成し、これらの合成された前音の立ち下がり区間の楽音と後音の立ち上がり 区間の楽音との組み合わせにより接続音が実現されることを特徴とするコンピュータ 読み取り可能な記憶媒体。
前記設定されたモードが発音優先モードである場合に、前記テール部の波形デー タの合成開始タイミングを、前記後音の発音開始指示タイミングよりも遅らせる制御を 行うステップを更に具備することを特徴とする請求項 10に記載のコンピュータ読み取 り可能な記憶媒体。
PCT/JP2007/060732 2006-05-25 2007-05-25 楽音合成装置及び方法 WO2007139034A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/302,500 US7816599B2 (en) 2006-05-25 2007-05-25 Tone synthesis apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-144922 2006-05-25
JP2006144922A JP4802857B2 (ja) 2006-05-25 2006-05-25 楽音合成装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2007139034A1 true WO2007139034A1 (ja) 2007-12-06

Family

ID=38778555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/060732 WO2007139034A1 (ja) 2006-05-25 2007-05-25 楽音合成装置及び方法

Country Status (3)

Country Link
US (1) US7816599B2 (ja)
JP (1) JP4802857B2 (ja)
WO (1) WO2007139034A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7718885B2 (en) * 2005-12-05 2010-05-18 Eric Lindemann Expressive music synthesizer with control sequence look ahead capability
US8321209B2 (en) 2009-11-10 2012-11-27 Research In Motion Limited System and method for low overhead frequency domain voice authentication
US8326625B2 (en) * 2009-11-10 2012-12-04 Research In Motion Limited System and method for low overhead time domain voice authentication
US8927847B2 (en) * 2013-06-11 2015-01-06 The Board Of Trustees Of The Leland Stanford Junior University Glitch-free frequency modulation synthesis of sounds
US10083682B2 (en) * 2015-10-06 2018-09-25 Yamaha Corporation Content data generating device, content data generating method, sound signal generating device and sound signal generating method
JP6930144B2 (ja) 2017-03-09 2021-09-01 カシオ計算機株式会社 電子楽器、楽音発生方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623298A (ja) * 1985-06-28 1987-01-09 ヤマハ株式会社 電子楽器
JPH06149261A (ja) * 1992-11-05 1994-05-27 Yamaha Corp 電子楽器
JPH07334156A (ja) * 1994-06-03 1995-12-22 Yamaha Corp 電子楽器
JP2002287759A (ja) * 2001-03-27 2002-10-04 Yamaha Corp 波形生成方法及び装置
JP2004045455A (ja) * 2002-07-08 2004-02-12 Roland Corp 電子楽器
JP2006126710A (ja) * 2004-11-01 2006-05-18 Yamaha Corp 奏法決定装置及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4726276A (en) * 1985-06-28 1988-02-23 Nippon Gakki Seizo Kabushiki Kaisha Slur effect pitch control in an electronic musical instrument
US5262582A (en) * 1986-11-10 1993-11-16 Terumo Kabushiki Kaisha Musical tone generating apparatus for electronic musical instrument
JP3654082B2 (ja) * 1999-09-27 2005-06-02 ヤマハ株式会社 波形生成方法及び装置
JP3601371B2 (ja) * 1999-09-27 2004-12-15 ヤマハ株式会社 波形生成方法及び装置
JP3654079B2 (ja) * 1999-09-27 2005-06-02 ヤマハ株式会社 波形生成方法及び装置
JP3654080B2 (ja) * 1999-09-27 2005-06-02 ヤマハ株式会社 波形生成方法及び装置
JP2001100760A (ja) * 1999-09-27 2001-04-13 Yamaha Corp 波形生成方法及び装置
JP3654084B2 (ja) * 1999-09-27 2005-06-02 ヤマハ株式会社 波形生成方法及び装置
US7094965B2 (en) * 2001-01-17 2006-08-22 Yamaha Corporation Waveform data analysis method and apparatus suitable for waveform expansion/compression control
SG118122A1 (en) * 2001-03-27 2006-01-27 Yamaha Corp Waveform production method and apparatus
US6911591B2 (en) * 2002-03-19 2005-06-28 Yamaha Corporation Rendition style determining and/or editing apparatus and method
JP3915807B2 (ja) * 2004-09-16 2007-05-16 ヤマハ株式会社 奏法自動判定装置及びプログラム
US7420113B2 (en) * 2004-11-01 2008-09-02 Yamaha Corporation Rendition style determination apparatus and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS623298A (ja) * 1985-06-28 1987-01-09 ヤマハ株式会社 電子楽器
JPH06149261A (ja) * 1992-11-05 1994-05-27 Yamaha Corp 電子楽器
JPH07334156A (ja) * 1994-06-03 1995-12-22 Yamaha Corp 電子楽器
JP2002287759A (ja) * 2001-03-27 2002-10-04 Yamaha Corp 波形生成方法及び装置
JP2004045455A (ja) * 2002-07-08 2004-02-12 Roland Corp 電子楽器
JP2006126710A (ja) * 2004-11-01 2006-05-18 Yamaha Corp 奏法決定装置及びプログラム

Also Published As

Publication number Publication date
US20090158919A1 (en) 2009-06-25
US7816599B2 (en) 2010-10-19
JP4802857B2 (ja) 2011-10-26
JP2007316269A (ja) 2007-12-06

Similar Documents

Publication Publication Date Title
JP4274152B2 (ja) 楽音合成装置
JP4702160B2 (ja) 楽音合成装置及びプログラム
JP2007011217A (ja) 楽音合成装置及びプログラム
JP4802857B2 (ja) 楽音合成装置及びプログラム
JP4561636B2 (ja) 楽音合成装置及びプログラム
JP3915807B2 (ja) 奏法自動判定装置及びプログラム
JP4407473B2 (ja) 奏法決定装置及びプログラム
JP2004078095A (ja) 奏法決定装置及びプログラム
JP4802947B2 (ja) 奏法決定装置及びプログラム
JP3719129B2 (ja) 楽音信号合成方法、楽音信号合成装置および記録媒体
JP4816441B2 (ja) 楽音合成装置及びプログラム
JP3552675B2 (ja) 波形生成方法及び装置
JP3613191B2 (ja) 波形生成方法及び装置
JP4172509B2 (ja) 奏法自動判定装置及び方法
JP3876896B2 (ja) 波形生成方法及び装置
JP2001272978A (ja) 情報修正装置及び情報修正プログラムを記録した媒体
JP4007374B2 (ja) 波形生成方法及び装置
JP3933162B2 (ja) 波形生成方法及び装置
JP3674527B2 (ja) 波形生成方法及び装置
JP2006133464A (ja) 奏法決定装置及びプログラム
JP2008003222A (ja) 楽音合成装置及びプログラム
JP2005092234A (ja) 波形生成方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07744166

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 12302500

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 07744166

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)