WO2018198381A1 - 音生成装置及び方法、楽器 - Google Patents

音生成装置及び方法、楽器 Download PDF

Info

Publication number
WO2018198381A1
WO2018198381A1 PCT/JP2017/017435 JP2017017435W WO2018198381A1 WO 2018198381 A1 WO2018198381 A1 WO 2018198381A1 JP 2017017435 W JP2017017435 W JP 2017017435W WO 2018198381 A1 WO2018198381 A1 WO 2018198381A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
effect
mode
sound generation
unit
Prior art date
Application number
PCT/JP2017/017435
Other languages
English (en)
French (fr)
Inventor
一輝 柏瀬
桂三 濱野
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to PCT/JP2017/017435 priority Critical patent/WO2018198381A1/ja
Publication of WO2018198381A1 publication Critical patent/WO2018198381A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • G10H1/04Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
    • G10H1/053Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits

Definitions

  • the present invention relates to a sound generation apparatus and method for imparting an effect to generated sound, and a musical instrument.
  • Patent Document 1 a sounding device that outputs a sound in a sounding manner according to a read control parameter and easily plays a sound with rich expression
  • Patent Document 1 gives an effect prepared in advance in association with information on each syllable of the lyric data. Therefore, there is a problem that it is difficult for a performer to freely impart a desired effect when performing in real time.
  • An object of the present invention is to provide a sound generation apparatus and method, and a musical instrument that can provide a desired effect in real time during sound generation.
  • At least one effect operator SW
  • a determination unit that determines whether the sound generation mode is the first mode or the second mode
  • An assigning unit that assigns at least one type of effect to the effect manipulator, and when the effect manipulator is operated when generating a sound, the mode determined by the determination unit, and the operated effect manipulator
  • a sound generation device includes a sound generation unit that generates the sound based on the types of effects allocated by the allocation unit.
  • a determination step for determining whether the sound generation mode is the first mode or the second mode, and at least one effect on the at least one effect operator An assigning step for assigning, and when the effect operator is operated when generating a sound, the mode determined by the determining step, and the type assigned to the operated effect operator by the assigning step And a sound generation step of generating the sound based on the effect.
  • At least one effect operator at least one effect operator, a determination unit that determines whether the sound generation mode is the first mode or the second mode, and the effect operator
  • An allocating unit that assigns at least one type of effect to the sound
  • a pitch designating unit that designates a pitch and instructing pronunciation, and when the effect operator is operated when generating a sound
  • the judgment unit judges The sound generation unit that generates the sound based on the mode and the type of effect assigned by the assignment unit to the operated effect manipulator, and the sound generated by the sound generation unit,
  • a musical instrument having a sound generation unit that generates sound at a pitch specified by a pitch specification unit.
  • a desired effect can be given in real time during sound generation.
  • FIG. 1 and 2 are schematic views of a sound generation apparatus according to an embodiment of the present invention.
  • This sound generation device is configured as an electronic musical instrument 100 that is a keyboard instrument, for example, and includes a main body 30 and a neck 31.
  • the main body 30 has a first surface 30a, a second surface 30b, a third surface 30c, and a fourth surface 30d.
  • the first surface 30a is a keyboard arrangement surface on which a keyboard unit KB composed of a plurality of keys is arranged.
  • the second surface 30b is the back surface. Hooks 36 and 37 are provided on the second surface 30b.
  • a strap (not shown) can be placed between the hooks 36 and 37, and the performer usually performs performance such as operation of the keyboard KB with the strap placed on the shoulder.
  • the first surface 30a and the keyboard part KB face the listener side, and the third surface 30c, the fourth surface The surfaces 30d are generally directed downward and upward, respectively.
  • the electronic musical instrument 100 is designed so that the keyboard KB is mainly played with the right hand when the shoulder is used.
  • the neck portion 31 extends from the side portion of the main body portion 30.
  • the neck portion 31 is provided with various operators such as switches SW (SW1, SW2).
  • a display unit 33 made of liquid crystal or the like is disposed on the fourth surface 30 d of the main body 30.
  • the main body portion 30 and the neck portion 31 have a substantially rectangular shape in a side view, but the four surfaces constituting the rectangle may not be flat surfaces but may be curved surfaces such as convex surfaces.
  • the electronic musical instrument 100 is a musical instrument that can perform singing simulation in response to an operation on a performance operator.
  • singing simulation is outputting the sound which simulated human voice by singing composition.
  • a white key and a black key are arranged in pitch order, and each key is associated with a different pitch.
  • the user presses a desired key on the keyboard KB.
  • the electronic musical instrument 100 detects a key operated by the user and generates a musical instrument sound or singing sound having a pitch corresponding to the operated key. Note that the order of syllables of the singing sounds to be generated is predetermined.
  • FIG. 3 is a block diagram of the electronic musical instrument 100.
  • the electronic musical instrument 100 includes a CPU (Central Processing Unit) 10, a timer 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a data storage unit 14, a performance operator 15, and other operations.
  • a child 16 a parameter value setting operator 17, a display unit 33, a sound source 19, an effect circuit 20, a sound system 21, a communication I / F (Interface), and a bus 23 are provided.
  • the CPU 10 is a central processing unit that controls the entire electronic musical instrument 100.
  • the timer 11 is a module that measures time.
  • the ROM 12 is a non-volatile memory that stores control programs and various data.
  • the RAM 13 is a volatile memory used as a work area for the CPU 10 and various buffers.
  • the display unit 33 is a display module such as a liquid crystal display panel or an organic EL (Electro-Luminescence) panel. The display unit 33 displays an operation state of the electronic musical instrument 100, various setting screens, a message for the user, and the like.
  • the performance operator 15 is a module (pitch designation unit) that mainly accepts a performance operation that designates a pitch.
  • the keyboard unit KB and the switches SW 1 and SW 2 are included in the performance operator 15.
  • the performance operator 15 may be configured such as note-on / note-off based on on / off of a sensor corresponding to each key, key-pressing strength (speed, velocity), and the like.
  • Output performance information may be in the form of a MIDI (musical instrument digital interface) message.
  • the switch SW is an effect operator called a SKILL switch, and the user can assign at least one type of effect to each switch SW.
  • the CPU 10 reflects the type of effect assigned to the switch SW that is turned on in the generated sound under a predetermined condition.
  • the user can assign different effects to the switches SW1 and SW2.
  • the switch SW is configured so that it can be turned on and off by pushing and releasing. However, it is only necessary to be able to perform an on / off operation.
  • the tilting direction and the rotation direction may be configured to be variable so that the on / off operation can be performed according to the direction of the operation.
  • the other operation element 16 is an operation module such as an operation button or an operation knob for performing settings other than performance, such as settings related to the electronic musical instrument 100, for example.
  • the parameter value setting operator 17 is an operation module such as operation buttons and operation knobs for setting sound parameters.
  • parameters for the attributes of the singing sound there are, for example, harmonics, brightness, resonance, gender factor, and the like.
  • Harmonic is a parameter that sets the balance of overtone components contained in the voice.
  • Brightness is a parameter for setting the contrast of a voice and gives a tone change.
  • Resonance is a parameter for setting the tone color and strength of a colored sound.
  • the gender element is a parameter for setting a formant, and changes the voice thickness and texture in a feminine or masculine manner.
  • the external storage device 3 is an external device connected to the electronic musical instrument 100, for example, and is a device that stores audio data, for example.
  • the communication I / F 22 is a communication module that communicates with an external device.
  • the bus 23 performs data transfer between each unit in the electronic musical instrument 100.
  • the data storage unit 14 stores singing data 14a.
  • the singing data 14a includes lyric text data, phonological information database, and the like.
  • Lyric text data is data describing the lyrics.
  • the lyrics text data the lyrics for each song are described in syllable units. That is, the lyric text data has character information obtained by dividing the lyrics into syllables, and this character information is also information for display corresponding to the syllable.
  • the syllable is a group of sounds output in response to one performance operation.
  • the phoneme information database is a database that stores speech segment data.
  • the speech segment data is data indicating a speech waveform, and includes, for example, spectrum data of a sample sequence of speech segments as waveform data. Further, the speech unit data includes unit pitch data indicating the pitch of the waveform of the speech unit.
  • the lyrics text data and the speech segment data may be managed by a database.
  • the sound source 19 is a module having a plurality of sound generation channels. One tone generation channel is assigned to the sound source 19 according to the performance of the user under the control of the CPU 10.
  • the sound source 19 reads out the speech segment data corresponding to the performance from the data storage unit 14 and generates singing sound data in the assigned sounding channel.
  • the effect circuit 20 applies the acoustic effect specified by the parameter value setting operator 17 to the singing sound data generated by the sound source 19.
  • the sound system 21 converts the singing sound data processed by the effect circuit 20 into an analog signal by a digital / analog converter. And the sound system 21 amplifies the singing sound converted into the analog signal, and outputs it from a speaker.
  • the lyrics text data included in the singing data 14a includes at least character information associated with a plurality of syllables corresponding to the selected song.
  • the lyric text data is data for singing by the singing unit or the sounding unit (the sound source 19, the effect circuit 20, and the sound system 21). During the performance, the effect specified by the parameter value setting operator 17 and the effect assigned to the switch SW may be given in duplicate.
  • FIG. 4, FIG. 5, and FIG. 6 are flowcharts of performance processing.
  • processing when the user performs selection of a performance song and performance of the selected song will be described.
  • a case will be described in which only a single sound is output even when a plurality of keys are operated simultaneously. In this case, only the highest pitch among the pitches of keys operated simultaneously may be processed, or only the lowest pitch may be processed.
  • the processing described below is realized, for example, when the CPU 10 executes a program stored in the ROM 12 or the RAM 13 and functions as a control unit that controls various components included in the electronic musical instrument 100.
  • step S101 When the power is turned on, the CPU 10 determines whether or not the power is turned off (step S101). When the power is turned off, the current information (status, setting value, etc.) is stored in the nonvolatile memory. After the data is stored in the (data storage unit 14 or the like), the process shown in FIG. 4 is terminated. On the other hand, if the power is not turned off, the CPU 10 determines whether or not a timbre selection has been accepted (step S102). If the CPU 10 accepts timbre selection, the CPU 10 sets the selected timbre as the current timbre (step S103), and the process proceeds to step S104. On the other hand, if no timbre selection has been received, the default timbre is set and the process proceeds to step S104.
  • the user can use the other operation element 16 as a timbre setting unit for setting a timbre.
  • the tone colors that can be set include instrument tone colors (piano, guitar, etc.) and singing tone colors (singer 1, singer 2, etc.).
  • the default timbre is, for example, a specific singer of a singing timbre.
  • step S104 the CPU 10 determines whether or not the set tone color is a musical instrument tone color. If the set tone color is not a musical instrument tone, the CPU 10 sets the tone generation mode to the song tone synthesis mode (the first song tone synthesis mode in which the song tone is generated by synthesizing the song tone). 1 mode) (step S106), and the process proceeds to step S201 in FIG. On the other hand, if the set timbre is an instrument timbre, the CPU 10 sets the sound generation mode to an instrument sound generation mode (second mode) for generating an instrument sound (step S105), and the processing is as shown in FIG. The process proceeds to step S301. Here, the CPU 10 sets the sound generation mode in accordance with the set tone determination result. As a result, since the user only needs to set the tone color, the mode setting is simple. The sound generation mode may be set directly.
  • step S201 of FIG. 5 the CPU 10 waits until an operation for selecting a song to be performed is received from the user (step S201). If there is no music selection operation even after a predetermined time has elapsed, the CPU 10 may determine that the music set by default has been selected. When the CPU 10 accepts the selection of the song, the CPU 10 reads the lyrics text data of the singing data 14a of the selected song. Then, the CPU 10 sets the cursor position at the first syllable described in the lyric text data (step S202). Here, the cursor is a virtual index indicating the position of the next syllable to be pronounced.
  • the CPU 10 determines whether or not note-on (sound generation instruction) based on the operation of the keyboard unit KB is detected (step S203). If the note-on is not detected, the CPU 10 determines whether or not the note-off is detected (step S207). On the other hand, when note-on is detected, that is, when a new key press is detected, the CPU 10 stops outputting the sound if a sound is being output (step S204). Next, the CPU 10 executes an output sound generation process for generating a singing sound according to note-on (step S205).
  • the CPU 10 reads out speech unit data (waveform data) of a syllable corresponding to the cursor position, and outputs a sound having a waveform indicated by the read out speech unit data at a pitch corresponding to note-on. Specifically, the CPU 10 obtains a difference between the pitch indicated by the segment pitch data included in the speech segment data and the pitch corresponding to the operated key, and the waveform data is obtained only at a frequency corresponding to the difference. The spectrum distribution shown is moved in the frequency axis direction. Thereby, the electronic musical instrument 100 can output a singing sound with the pitch corresponding to the operated key.
  • the CPU 10 updates the cursor position (reading position) (step S206), and advances the processing to step S207.
  • FIG. 7 is a diagram illustrating an example of lyrics text data.
  • lyrics of five syllables c1 to c5 are described in the lyrics text data.
  • Each character “ha”, “ru”, “yo”, “ko”, “i” indicates one character of Japanese hiragana, and each character corresponds to one syllable.
  • the CPU 10 updates the cursor position in syllable units.
  • the CPU 10 moves the cursor position to the next syllable c4. In this way, the CPU 10 sequentially moves the cursor position to the next syllable according to note-on.
  • FIG. 8 is a diagram illustrating an example of the type of speech element data.
  • the CPU 10 extracts speech segment data corresponding to the syllable from the phonological information database in order to pronounce the syllable corresponding to the cursor position.
  • speech segment data There are two types of speech segment data: phoneme chain data and stationary partial data.
  • the phoneme chain data is data indicating a speech segment when the pronunciation changes, such as “silence (#) to consonant”, “consonant to vowel”, “vowel to consonant (vowel of the next syllable)”.
  • the stationary partial data is data indicating a speech unit when the vowel sound continues.
  • the sound source 19 includes the speech chain data “# -h” corresponding to “silence ⁇ consonant h” and “consonant h ⁇ vowel a”. Is selected from the speech chain data “ha” corresponding to “” and the stationary partial data “a” corresponding to “vowel a”. Then, when the CPU 10 detects the key depression after the performance is started, the singing sound based on the voice chain data “# -h”, the voice chain data “ha”, and the stationary partial data “a” is operated. Is output with the pitch according to the operation and the velocity according to the operation. In this way, the determination of the cursor position and the pronunciation of the singing sound are executed.
  • step S207 If the note-off is detected in step S207 in FIG. 5, if the sound is being output, the CPU 10 stops outputting the sound (step S208) and advances the process to step S209. On the other hand, when note-off is not detected, the CPU 10 advances the process to step S209. In step S209, the CPU 10 executes a SKILL process (FIG. 9) described later. Thereafter, the CPU 10 determines whether or not the performance is finished (step S210). If the performance is not finished in step S210, the CPU 10 returns the process to step S203. On the other hand, when the performance is finished, if the CPU 10 is outputting a sound, the CPU 10 stops outputting the sound (step S211), and returns the process to step S101 in FIG. Note that the CPU 10 determines whether or not the performance has ended, for example, whether or not the last syllable of the selected song has been pronounced, or whether or not an operation to end the performance has been performed by the other operator 16. Can be determined based on
  • step S301 in FIG. 6 the CPU 10 executes real-time performance processing for generating musical instrument sounds. That is, the CPU 10 generates a sound of the currently selected instrument tone color according to the performance of the keyboard unit KB.
  • step 302 the CPU 10 executes a SKILL process (FIG. 9) described later. Thereafter, the CPU 10 returns the processing to step S101 in FIG.
  • FIG. 9 is a flowchart of the SKILL process. This process is executed in step S209 in FIG. 5 and step 302 in FIG.
  • the CPU 10 serves as a determination unit, an allocation unit, and a sound generation unit.
  • the CPU 10 determines whether or not a SKILL setting instruction has been accepted (step S401).
  • the SKILL setting instruction is an instruction to assign an effect and an effect value to one or both of the switches SW1 and SW2.
  • the user can issue a SKILL setting instruction by using the other operation element 16 and the parameter value setting operation element 17. If the SKILL setting instruction has not been accepted, the CPU 10 advances the process to step S403. If the SKILL setting instruction has been accepted, the CPU 10 advances the process to step S403 after executing step S402.
  • step S402 the CPU 10 assigns to the switches SW1 and SW2 performance technique information corresponding to the instruction, that is, the type of effect corresponding to the instruction and a setting value (parameter value) related thereto.
  • the type of effect that can be assigned is compliant with MIDI, it is not limited thereto. Examples of the types of effects include sustain, portamento, vibrato, and squeal (such as temporarily lowering the pitch bend and then returning it).
  • the “effect value” is not limited to being set by the user, and a default value may be determined for each effect type.
  • the “effect value” changes according to the duration of the effect (value at intervals of 10 ms). It may be a value indicating that, for example, changes.
  • the effect assigned to one switch SW is not limited to one type, and two or more types may be set overlappingly.
  • the editing mode may be temporarily changed to the editing mode.
  • a plurality of combinations of effects and set values may be preset, and the user may designate a desired one from among them.
  • step S403 the CPU 10 determines whether or not at least one of the switches SW1 and SW2 is turned on. If neither of the switches SW1 and SW2 is turned on, the CPU 10 advances the process to step S409. On the other hand, when at least one of the switches SW1 and SW2 is turned on, the CPU 10 determines whether or not the currently set sound generation mode is the singing sound synthesis mode (step S404). Here, the CPU 10 may directly determine the sound generation mode, but may determine whether the set tone color is a singing tone color.
  • the CPU 10 determines whether or not the sound of the instrument tone color is being output because it is the instrument sound generation mode (step S405). If the instrument tone color is not being output, the CPU 10 advances the process to step S409. On the other hand, when the sound of the instrument tone color is being output, the CPU 10 is based on the corresponding parameter on the condition that the effect of the type assigned to the switch SW that is turned on this time is suitable for the instrument sound being output. An effect is applied to the musical instrument sound being output (step S406). Therefore, regarding the musical instrument sound being output, the above-mentioned effect is reflected in the generation after the present time. When there is no suitable effect (for example, an effect of a kind that is applied only to the singing tone color), no effect is given in step S406. Thereafter, the process proceeds to step S409.
  • step S404 determines whether or not a singing tone color is being output (step S407). If the singing tone color is not being output, the CPU 10 advances the process to step S409. On the other hand, when the sound of the singing tone color is being output, the CPU 10 is based on the corresponding parameter on the condition that the effect of the type assigned to the switch SW turned on this time is suitable for the singing sound being output. The effect is applied to the singing sound being output (step S408). Therefore, regarding the singing sound being output, the provision of the effect is reflected in the generation after the present time. Note that if there is no suitable effect (for example, an effect of a kind that is applied only to a musical instrument tone), no effect is provided in step S408. Thereafter, the process proceeds to step S409.
  • the CPU 10 gives the effect to the sound to be generated when the assigned type of effect is valid for the current sound generation mode, but does not give the effect when it is invalid. If a plurality of types of effects are assigned to one switch SW in step S402, only effects suitable for the sound being output are provided in steps S406 and S408. When the two switches SW are turned on at the same time in step S403, the processes in steps S406 and S408 are executed corresponding to each of the switches SW.
  • step S409 the CPU 10 determines whether or not the switch SW that has been turned on has been turned off. If the switch SW is not turned off, the CPU 10 advances the process to step S415. On the other hand, when the switch SW that has been turned on is turned off, the CPU 10 determines whether or not the currently set sound generation mode is the singing sound synthesis mode (step S410), as in step S404. ). When the sound generation mode is not the singing sound synthesis mode, the CPU 10 determines whether the sound of the instrument timbre is being output because it is the instrument sound generation mode (step S411). If the instrument tone color is not being output, the CPU 10 advances the process to step S415.
  • step S412 when a musical instrument tone color is being output, the CPU 10 applies to the musical instrument sound being output on condition that the type of effect assigned to the switch SW turned off this time is suitable for the musical instrument sound being output.
  • the application of the effect is stopped (step S412). Thereafter, the process proceeds to step S415.
  • step S410 if the sound generation mode is the singing sound synthesis mode, the CPU 10 determines whether or not the singing tone color is being output (step S413). If the singing tone color is not being output, the CPU 10 advances the process to step S415. On the other hand, when the sound of the singing tone color is being output, the CPU 10 outputs the singing sound being output on condition that the effect of the type assigned to the switch SW turned off this time is suitable for the singing sound being output. The application of the effect to is stopped (step S414). Thereafter, the process proceeds to step S415.
  • step S415 the CPU 10 determines whether or not there is a switch SW in an on state. If there is no switch SW in the on state, the CPU 10 executes other processing (step S419) and returns the processing to step S101 in FIG. On the other hand, if there is a switch SW that is in the on state, the CPU 10 determines whether or not the currently set sound generation mode is the singing sound synthesis mode, similarly to step S404 (step S416). When the sound generation mode is not the singing sound synthesis mode, the instrument sound generation mode is set. Therefore, the CPU 10 sets effect provision on the condition that the effect of the type assigned to the switch SW in the on state is suitable for the currently set instrument tone color (step S417).
  • the CPU 10 performs setting so as to give an effect to the sound of the instrument tone color to be generated next based on the corresponding parameter.
  • the type of effect assigned to the switch SW is reflected on the sound generated by the next note-on with the currently set instrument tone color. Thereafter, the process proceeds to step S419.
  • the CPU 10 is suitable for the currently set singing tone color in which the type of effect assigned to the switch SW that is on is set.
  • effect provision is set (step S418). That is, the CPU 10 performs setting so as to give an effect to the sound of the singing tone color to be generated next based on the corresponding parameter.
  • the application of the type of effect assigned to the switch SW is reflected on the syllable sounded by the next note-on with the currently set singing tone color. .
  • “shrimp” is useful as an effect.
  • steps S417 and S4108 an effect can be given to the next pronunciation.
  • steps S406 and S408 an effect can be applied from the middle of sound generation.
  • the CPU 10 when the switch SW is operated when generating a sound, the CPU 10 performs the sound generation based on the sound generation mode and the type of effect assigned to the operated switch SW. Is generated. Thereby, a desired effect can be given in real time at the time of sound generation. For example, the user can easily add facial expressions while playing. In addition, since the effect can be applied not only to the sound being generated but also to the sound to be generated next, the performance expression is high.
  • the CPU 10 gives an effect to the generated sound only when the effect of the type assigned to the switch SW that is turned on is effective for the sound generation mode, and does not give the effect when the effect is invalid. .
  • the effect assigned to the switch SW can be reflected only in the desired sound generation mode.
  • the user does not need to reselect the effect to be given every time the sound generation mode is switched.
  • the operation of the switch SW for providing an effect is common, so that the operation is easy.
  • the sound generation mode is determined based on the set tone color, the user can easily set the sound generation mode.
  • the CPU 10 causes a display unit such as an LED (not shown) to emit light.
  • the number of switches SW may be 1 or 3 or more.
  • the musical instrument to which the present invention is applied is not limited to a keyboard musical instrument.
  • SW1, SW2 switch effect control
  • 10 CPU determination unit, allocation unit, sound generation unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

音生成時に所望の効果をリアルタイムに付与することができる音生成装置を提供する。スイッチSW1、SW2には、ユーザの指示に応じた種類の効果とそれに関連する設定値(パラメータ値)を割り当て可能である。CPU10は、スイッチSWがオンされた場合において、音生成モードが楽器音生成モードで楽器音色の音が出力中であれば、スイッチSWに割り当てられている種類の効果が出力中の楽器音に適することを条件として、対応するパラメータに基づき、出力中の音に対して効果を付与し、音生成モードが歌唱音合成モードで歌唱音音色の音が出力中であれば、割り当てられている種類の効果が出力中の歌唱音に適することを条件として、対応するパラメータに基づき、出力中の音に対して効果を付与する。

Description

音生成装置及び方法、楽器
 本発明は、生成する音に効果を付与する音生成装置及び方法、楽器に関する。
 従来、読み出した制御パラメータに従った発音態様で音を出力させ、簡単に、表情豊かな音の演奏を行う発音装置が知られている(特許文献1)。
国際公開第2016/152715号公報
 しかしながら、上記特許文献1は、歌詞データの各音節の情報に対応付けて予め用意された効果を音に付与する。そのため、演奏者がリアルタイムに演奏する際に所望の効果を自在に付与することが困難であるという問題があった。
 本発明の目的は、音生成時に所望の効果をリアルタイムに付与することができる音生成装置及び方法、楽器を提供することである。
 上記目的を達成するために本発明によれば、少なくとも1つの効果操作子(SW)と、音生成モードが第1のモードであるか第2のモードであるかを判断する判断部と、前記効果操作子に少なくとも1種類の効果を割り当てる割当部と、音を生成する際に前記効果操作子が操作された場合、前記判断部により判断されたモードと、操作された前記効果操作子に前記割当部により割り当てられている種類の効果とに基づいて、前記音を生成する音生成部と、を有する音生成装置が提供される。
 上記目的を達成するために本発明によれば、音生成モードが第1のモードであるか第2のモードであるかを判断する判断ステップと、少なくとも1つの効果操作子に少なくとも1種類の効果を割り当てる割当ステップと、音を生成する際に前記効果操作子が操作された場合、前記判断ステップにより判断されたモードと、操作された前記効果操作子に前記割当ステップにより割り当てられている種類の効果とに基づいて、前記音を生成する音生成ステップと、を有する音生成方法が提供される。
 上記目的を達成するために本発明によれば、少なくとも1つの効果操作子と、音生成モードが第1のモードであるか第2のモードであるかを判断する判断部と、前記効果操作子に少なくとも1種類の効果を割り当てる割当部と、音高を指定して発音を指示する音高指定部と、音を生成する際に前記効果操作子が操作された場合、前記判断部により判断されたモードと、操作された前記効果操作子に前記割当部により割り当てられている種類の効果とに基づいて、前記音を生成する音生成部と、前記音生成部により生成された音を、前記音高指定部により指示された音高で発音する発音部と、を有する楽器が提供される。
 なお、上記括弧内の符号は例示である。
 本発明によれば、音生成時に所望の効果をリアルタイムに付与することができる。
音生成装置の模式図である。 音生成装置の模式図である。 電子楽器のブロック図である。 演奏処理のフローチャートである。 演奏処理の続きのフローチャートである。 演奏処理の続きのフローチャートである。 歌詞テキストデータの一例を示す図である。 音声素片データの種類の一例を示す図である。 SKILL処理のフローチャートである。
 以下、図面を参照して本発明の実施の形態を説明する。
 図1、図2は、本発明の一実施の形態に係る音生成装置の模式図である。この音生成装置は、一例として鍵盤楽器である電子楽器100として構成され、本体部30及びネック部31を有する。本体部30は、第1面30a、第2面30b、第3面30c、第4面30dを有する。第1面30aは、複数の鍵から成る鍵盤部KBが配設される鍵盤配設面である。第2面30bは裏面である。第2面30bにはフック36、37が設けられる。フック36、37間には不図示のストラップを架けることができ、演奏者は通常、ストラップを肩に掛けて鍵盤部KBの操作等の演奏を行う。従って、肩掛けした使用時で、特に鍵盤部KBの音階方向(鍵の配列方向)が左右方向となるとき、第1面30a及び鍵盤部KBが聴取者側を向き、第3面30c、第4面30dはそれぞれ概ね下方、上方を向く。なお、電子楽器100は、肩掛け使用時に鍵盤部KBを主として右手で演奏する仕様となっている。
 ネック部31は本体部30の側部から延設される。ネック部31には、スイッチSW(SW1、SW2)等、各種の操作子が配設される。本体部30の第4面30dには、液晶等で構成される表示ユニット33が配設される。なお、本体部30、ネック部31の側面視形状は概ね矩形であるが、矩形を構成する4つの各面は平坦面でなくてもよく、凸面等の湾曲面であってもよい。
 電子楽器100は、演奏操作子への操作に応じて歌唱模擬を行うことができる楽器である。ここで、歌唱模擬とは、歌唱合成により人間の声を模擬した音声を出力することである。鍵盤部KBの各鍵は白鍵、黒鍵が音高順に並べられ、各鍵は、それぞれ異なる音高に対応付けられている。電子楽器100を演奏する場合、ユーザは、鍵盤部KBの所望の鍵を押下する。電子楽器100はユーザにより操作された鍵を検出し、操作された鍵に応じた音高の楽器音または歌唱音を発音する。なお、発音される歌唱音の音節の順序は予め定められている。
 図3は、電子楽器100のブロック図である。電子楽器100は、CPU(Central Processing Unit)10と、タイマ11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、データ記憶部14と、演奏操作子15と、他操作子16と、パラメータ値設定操作子17と、表示ユニット33と、音源19と、効果回路20と、サウンドシステム21と、通信I/F(Interface)と、バス23と、を備える。
 CPU10は、電子楽器100全体の制御を行う中央処理装置である。タイマ11は、時間を計測するモジュールである。ROM12は制御プログラムや各種のデータなどを格納する不揮発性のメモリである。RAM13はCPU10のワーク領域及び各種のバッファなどとして使用される揮発性のメモリである。表示ユニット33は、液晶ディスプレイパネル、有機EL(Electro−Luminescence)パネルなどの表示モジュールである。表示ユニット33は、電子楽器100の動作状態、各種設定画面、ユーザに対するメッセージなどを表示する。
 演奏操作子15は、主として音高を指定する演奏操作を受け付けるモジュール(音高指定部)である。本実施の形態では、鍵盤部KB、スイッチSW1、SW2は演奏操作子15に含まれる。一例として、演奏操作子15が鍵盤である場合、演奏操作子15は、各鍵に対応するセンサのオン/オフに基づくノートオン/ノートオフ、押鍵の強さ(速さ、ベロシティ)などの演奏情報を出力する。この演奏情報は、MIDI(musical instrument digital interface)メッセージ形式であってもよい。
 スイッチSWは、SKILLスイッチと呼称される効果操作子であり、ユーザは、各スイッチSWに少なくとも1種類の効果を割り当てることが可能である。詳細は後述するが、CPU10は、音を生成する際に、オン操作されたスイッチSWに割り当てられている種類の効果を、所定の条件の下で、生成する音に反映させる。ユーザは、スイッチSW1、SW2には互いに異なる効果をアサイン可能である。スイッチSWは、押し離し操作によりオン操作とオフ操作とができるように構成される。しかしオンとオフの操作ができればよく、例えば、倒す方向や回転方向を可変に構成し、操作の方向によってオン操作とオフ操作とができるようにしてもよい。
 他操作子16は、例えば、電子楽器100に関する設定など、演奏以外の設定を行うための操作ボタンや操作つまみなどの操作モジュールである。パラメータ値設定操作子17は、音のパラメータを設定するための操作ボタンや操作つまみなどの操作モジュールである。歌唱音の属性についてのパラメータとしては、例えば、和声(Harmonics)、明るさ(Brightness)、共鳴(Resonance)、性別要素(Gender Factor)等がある。和声とは、声に含まれる倍音成分のバランスを設定するパラメータである。明るさとは、声の明暗を設定するパラメータであり、トーン変化を与える。共鳴とは、有色音の音色や強弱を設定するパラメータである。性別要素とは、フォルマントを設定するパラメータであり、声の太さ、質感を女性的、或いは、男性的に変化させる。外部記憶装置3は、例えば、電子楽器100に接続される外部機器であり、例えば、音声データを記憶する装置である。通信I/F22は、外部機器と通信する通信モジュールである。バス23は電子楽器100における各部の間のデータ転送を行う。
 データ記憶部14は、歌唱用データ14aを格納する。歌唱用データ14aには歌詞テキストデータ、音韻情報データベースなどが含まれる。歌詞テキストデータは、歌詞を記述するデータである。歌詞テキストデータには、曲ごとの歌詞が音節単位で区切られて記述されている。すなわち、歌詞テキストデータは歌詞を音節に区切った文字情報を有し、この文字情報は音節に対応する表示用の情報でもある。ここで音節とは、1回の演奏操作に応じて出力する音のまとまりである。音韻情報データベースは、音声素片データを格納するデータベースである。音声素片データは音声の波形を示すデータであり、例えば、音声素片のサンプル列のスペクトルデータを波形データとして含む。また、音声素片データには、音声素片の波形のピッチを示す素片ピッチデータが含まれる。歌詞テキストデータ、音声素片データは、それぞれ、データベースにより管理されてもよい。
 音源19は、複数の発音チャンネルを有するモジュールである。音源19には、CPU10の制御の基で、ユーザの演奏に応じて1つの発音チャンネルが割り当てられる。歌唱音を発音する場合、音源19は、割り当てられた発音チャンネルにおいて、データ記憶部14から演奏に対応する音声素片データを読み出して歌唱音データを生成する。効果回路20は、音源19が生成した歌唱音データに対して、パラメータ値設定操作子17により指定された音響効果を適用する。サウンドシステム21は、効果回路20による処理後の歌唱音データを、デジタル/アナログ変換器によりアナログ信号に変換する。そして、サウンドシステム21は、アナログ信号に変換された歌唱音を増幅してスピーカなどから出力する。
 歌唱用データ14aに含まれる歌詞テキストデータは、選択曲に応じた複数の各音節に対応付けられた文字情報を少なくとも含む。歌詞テキストデータは、歌唱部ないし発音部(音源19、効果回路20及びサウンドシステム21)により歌唱されるためのデータである。なお、演奏中に、パラメータ値設定操作子17により指定された効果とスイッチSWに割り当てられた効果とが重複して付与されてもよい。
 図4、図5、図6は、演奏処理のフローチャートである。ここでは、ユーザにより、演奏曲の選択と選択した曲の演奏とが行われる場合の処理について説明する。また、説明を簡単にするため、複数の鍵が同時に操作された場合であっても、単音のみを出力する場合について説明する。この場合、同時に操作された鍵の音高のうち、最も高い音高のみについて処理してもよいし、最も低い音高のみについて処理してもよい。なお、以下に説明する処理は、例えば、CPU10がROM12やRAM13に記憶されたプログラムを実行し、電子楽器100が備える各種構成を制御する制御部として機能することにより実現される。
 電源がオンにされると、CPU10は、電源がオフにされたか否かを判別し(ステップS101)、電源がオフにされた場合は、現在の各種情報(状態や設定値等)を不揮発メモリ(データ記憶部14等)に記憶させてから、図4に示す処理を終了させる。一方、電源がオフにされない場合は、CPU10は、音色選択を受け付けたか否かを判別する(ステップS102)。そしてCPU10は、音色選択を受け付けた場合は、選択された音色を現在の音色として設定し(ステップS103)、処理をステップS104に進める。一方、音色選択を受け付けていない場合は、デフォルトの音色に設定して処理をステップS104に進める。ここでユーザは、例えば他操作子16を、音色を設定する音色設定部として利用できる。設定可能な音色には、楽器音色(ピアノ、ギター等)と歌唱音音色(シンガー1、シンガー2等)とがある。デフォルトの音色は例えば歌唱音音色の特定のシンガーとする。
 ステップS104では、CPU10は、設定された音色が楽器音色であるか否かを判別する。そして、CPU10は、設定された音色が楽器音色でない場合は、設定された音色は歌唱音音色であるので、CPU10は、音生成モードを、歌唱音を合成して発音する歌唱音合成モード(第1のモード)に設定して(ステップS106)、処理を図5のステップS201に進める。一方、CPU10は、設定された音色が楽器音色である場合は、音生成モードを、楽器音を発音する楽器音生成モード(第2のモード)に設定して(ステップS105)、処理を図6のステップS301に進める。ここで、CPU10は、設定された音色の判断結果に応じて音生成モードを設定している。これにより、ユーザにとっては音色を設定するだけでよいので、モード設定が簡単である。なお、音生成モードを直接に設定できる構成としてもよい。
 図5のステップS201では、CPU10は、演奏する曲を選択する操作がユーザから受け付けられるまで待つ(ステップS201)。なお、一定時間経過しても曲選択の操作がない場合は、CPU10は、デフォルトで設定されている曲が選択されたと判断してもよい。CPU10は、曲の選択を受け付けると、選択された曲の歌唱用データ14aの歌詞テキストデータを読み出す。そして、CPU10は、歌詞テキストデータに記述された先頭の音節にカーソル位置を設定する(ステップS202)。ここで、カーソルとは、次に発音する音節の位置を示す仮想的な指標である。次に、CPU10は、鍵盤部KBの操作に基づくノートオン(発音指示)を検出したか否かを判定する(ステップS203)。CPU10は、ノートオンが検出されない場合、ノートオフを検出したか否かを判別する(ステップS207)。一方、ノートオンを検出した場合、すなわち新たな押鍵を検出した場合は、CPU10は、音を出力中であればその音の出力を停止する(ステップS204)。次にCPU10は、ノートオンに応じた歌唱音を発音する出力音生成処理を実行する(ステップS205)。
 この出力音生成処理を説明する。CPU10はまず、カーソル位置に対応する音節の音声素片データ(波形データ)を読み出し、ノートオンに対応する音高で、読み出した音声素片データが示す波形の音を出力する。具体的には、CPU10は、音声素片データに含まれる素片ピッチデータが示す音高と、操作された鍵に対応する音高との差分を求め、この差分に相当する周波数だけ波形データが示すスペクトル分布を周波数軸方向に移動させる。これにより、電子楽器100は、操作された鍵に対応する音高で歌唱音を出力することができる。次に、CPU10は、カーソル位置(読出位置)を更新し(ステップS206)、処理をステップS207に進める。
 ここで、ステップS205、S206の処理に係るカーソル位置の決定と歌唱音の発音について、具体例を用いて説明する。まず、カーソル位置の更新について説明する。図7は、歌詞テキストデータの一例を示す図である。図7の例では、歌詞テキストデータには、5つの音節c1~c5の歌詞が記述されている。各字「は」、「る」、「よ」、「こ」、「い」は、日本語のひらがなの1字を示し、各字が1音節に対応する。CPU10は、音節単位でカーソル位置を更新する。例えば、カーソルが音節c3に位置している場合、「よ」に対応する音声素片データをデータ記憶部14から読み出し、「よ」の歌唱音を発音する。CPU10は、「よ」の発音が終了すると、次の音節c4にカーソル位置を移動させる。このように、CPU10は、ノートオンに応じて次の音節にカーソル位置を順次移動させる。
 次に、歌唱音の発音について説明する。図8は、音声素片データの種類の一例を示す図である。CPU10は、カーソル位置に対応する音節を発音させるために、音韻情報データベースから、音節に対応する音声素片データを抽出する。音声素片データには、音素連鎖データと、定常部分データの2種類が存在する。音素連鎖データとは、「無音(#)から子音」、「子音から母音」、「母音から(次の音節の)子音又は母音」など、発音が変化する際の音声素片を示すデータである。定常部分データは、母音の発音が継続する際の音声素片を示すデータである。例えば、カーソル位置が音節c1の「は(ha)」に設定されている場合、音源19は、「無音→子音h」に対応する音声連鎖データ「#−h」と、「子音h→母音a」に対応する音声連鎖データ「h−a」と、「母音a」に対応する定常部分データ「a」と、を選択する。そして、CPU10は、演奏が開始されて押鍵を検出すると、音声連鎖データ「#−h」、音声連鎖データ「h−a」、定常部分データ「a」に基づく歌唱音を、操作された鍵に応じた音高、操作に応じたベロシティで出力する。このようにして、カーソル位置の決定と歌唱音の発音が実行される。
 図5のステップS207でノートオフを検出した場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS208)、処理をステップS209に進める。一方、ノートオフが検出されない場合は、CPU10は処理をステップS209に進める。ステップS209では、CPU10は、後述するSKILL処理(図9)を実行する。その後、CPU10は、演奏が終了したか否かを判別する(ステップS210)。CPU10は、ステップS210で、演奏を終了していない場合は処理をステップS203に戻す。一方、演奏を終了した場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS211)、処理を図4のステップS101に戻す。なお、CPU10は、演奏を終了したか否かを、例えば、選択曲の最後尾の音節が発音されたか否か、あるいは他操作子16により演奏を終了する操作が行われた否か、などに基づき判別できる。
 図6のステップS301では、CPU10は、楽器音を発音するリアルタイム演奏の処理を実行する。すなわち、CPU10は、鍵盤部KBの演奏に従って、現在選択されている楽器音色の音を発音させる。次に、ステップ302では、CPU10は、後述するSKILL処理(図9)を実行する。その後、CPU10は、処理を図4のステップS101に戻す。
 図9は、SKILL処理のフローチャートである。この処理は、図5のステップS209、図6のステップ302で実行される。この処理において、CPU10は、判断部、割当部、音生成部としての役割を果たす。まず、CPU10は、SKILL設定指示が受け付けられたか否かを判別する(ステップS401)。SKILL設定指示は、スイッチSW1、SW2のいずれかまたは双方に対して効果及び効果の値を割り当てる指示であり、ユーザは他操作子16及びパラメータ値設定操作子17によりSKILL設定指示を行える。CPU10は、SKILL設定指示が受け付けられていない場合は、処理をステップS403に進める一方、SKILL設定指示が受け付けられた場合は、ステップS402を実行してからステップS403に処理を進める。
 ステップS402では、CPU10は、スイッチSW1、SW2に、指示に応じた演奏技法の情報、すなわち指示に応じた種類の効果とそれに関連する設定値(パラメータ値)を割り当てる。割り当て可能な効果の種類としてMIDIに準拠したものが考えられるが、それに限らない。効果の種類として例えば、サスティン、ポルタメント、ビブラート、しゃくり(ピッチベンドを一時的に下げてから戻す等)等が挙げられる。なお、「効果の値」については、ユーザにより設定されることに限定されず、効果種類毎にデフォルト値が決められていてもよく、例えば効果の持続時間に応じて変化する(10ms間隔で値が変わるなど)ことを示す値であってもよい。また、1つのスイッチSWに割り当てられる効果は1種類に限定されず、2種類以上が重複して設定されてもよい。なお、効果の割り当てをユーザが行う場合、一旦、編集モードに移行して編集可能に構成してもよい。あるいは、効果と設定値の組み合わせを予め複数プリセットしておき、その中からユーザが所望のものを指定できるように構成してもよい。
 ステップS403では、CPU10は、スイッチSW1、SW2の少なくともいずれかがオンされたか否かを判別する。そして、CPU10は、スイッチSW1、SW2のいずれもオンされない場合は、処理をステップS409に進める。一方、スイッチSW1、SW2の少なくともいずれかがオンされた場合は、CPU10は、現在設定されている音生成モードが歌唱音合成モードであるか否かを判別する(ステップS404)。ここでCPU10は、音生成モードを直接に判別してもよいが、設定された音色が歌唱音音色であるか否かによって判別してもよい。
 そしてCPU10は、音生成モードが歌唱音合成モードでない場合は、楽器音生成モードであるので、楽器音色の音が出力中であるか否かを判別する(ステップS405)。そしてCPU10は、楽器音色の音が出力中でない場合は処理をステップS409に進める。一方、楽器音色の音が出力中である場合は、CPU10は、今回オンされたスイッチSWに割り当てられている種類の効果が出力中の楽器音に適することを条件として、対応するパラメータに基づき、出力中の楽器音に対して効果を付与する(ステップS406)。従って、出力中の楽器音に関し、現時点以降の生成において上記効果の付与が反映される。なお、適する効果がない場合(例えば、歌唱音音色にだけ適用されるような種類の効果)については、ステップS406では効果は付与されない。その後、処理はステップS409に進む。
 ステップS404で、音生成モードが歌唱音合成モードである場合は、CPU10は、歌唱音音色の音が出力中であるか否かを判別する(ステップS407)。そしてCPU10は、歌唱音音色の音が出力中でない場合は処理をステップS409に進める。一方、歌唱音音色の音が出力中である場合は、CPU10は、今回オンされたスイッチSWに割り当てられている種類の効果が出力中の歌唱音に適することを条件として、対応するパラメータに基づき、出力中の歌唱音に対して効果を付与する(ステップS408)。従って、出力中の歌唱音に関し、現時点以降の生成において上記効果の付与が反映される。なお、適する効果がない場合(例えば、楽器音色にだけ適用されるような種類の効果)については、ステップS408では効果は付与されない。その後、処理はステップS409に進む。
 従って、CPU10は、割り当てられている種類の効果が現在の音生成モードに対して有効な場合は生成する音に対して効果を付与するが、無効な場合は効果を付与しない。なお、ステップS402で1つのスイッチSWに複数種類の効果が割り当てられている場合は、ステップS406、S408では、出力中の音に適する効果に限り付与される。また、ステップS403で2つのスイッチSWが同時にオンされた場合は、ステップS406、S408の処理はスイッチSWのそれぞれに対応して実行される。
 ステップS409では、CPU10は、オンされていたスイッチSWのオフ操作があったか否かを判別する。そしてCPU10は、スイッチSWのオフ操作がない場合は処理をステップS415に進める。一方、オンされていたスイッチSWのオフ操作があった場合は、CPU10は、ステップS404と同様に、現在設定されている音生成モードが歌唱音合成モードであるか否かを判別する(ステップS410)。そしてCPU10は、音生成モードが歌唱音合成モードでない場合は、楽器音生成モードであるので、楽器音色の音が出力中であるか否かを判別する(ステップS411)。そしてCPU10は、楽器音色の音が出力中でない場合は処理をステップS415に進める。一方、楽器音色の音が出力中である場合は、CPU10は、今回オフされたスイッチSWに割り当てられている種類の効果が出力中の楽器音に適することを条件として、出力中の楽器音に対する効果の付与を停止する(ステップS412)。その後、処理はステップS415に進む。
 ステップS410で、音生成モードが歌唱音合成モードである場合は、CPU10は、歌唱音音色の音が出力中であるか否かを判別する(ステップS413)。そしてCPU10は、歌唱音音色の音が出力中でない場合は処理をステップS415に進める。一方、歌唱音音色の音が出力中である場合は、CPU10は、今回オフされたスイッチSWに割り当てられている種類の効果が出力中の歌唱音に適することを条件として、出力中の歌唱音に対する効果の付与を停止する(ステップS414)。その後、処理はステップS415に進む。
 なお、ステップS412、S414では、今回オフされたスイッチSWに割り当てられている種類の効果が出力中の音に適しない場合、付与中の効果は停止されない。
 ステップS415で、CPU10は、オン状態となっているスイッチSWがあるか否かを判別する。そしてCPU10は、オン状態となっているスイッチSWがない場合は、その他の処理を実行し(ステップS419)、図4のステップS101に処理を戻す。一方、オン状態となっているスイッチSWがある場合は、CPU10は、ステップS404と同様に、現在設定されている音生成モードが歌唱音合成モードであるか否かを判別する(ステップS416)。音生成モードが歌唱音合成モードでない場合は楽器音生成モードである。そこでCPU10は、オン状態となっているスイッチSWに割り当てられている種類の効果が現在設定されている楽器音色に適することを条件として、効果付与を設定する(ステップS417)。すなわち、CPU10は、対応するパラメータに基づき、次に生成する楽器音色の音に対して効果を付与するよう設定する。これにより、次回の図6のステップS301において、現在設定されている楽器音色で次のノートオンにより発音される音に対して、スイッチSWに割り当てられている種類の効果付与が反映される。その後、処理はステップS419に進む。
 一方、ステップS416で、音生成モードが歌唱音合成モードである場合は、CPU10は、オン状態となっているスイッチSWに割り当てられている種類の効果が現在設定されている歌唱音音色に適することを条件として、効果付与を設定する(ステップS418)。すなわち、CPU10は、対応するパラメータに基づき、次に生成する歌唱音音色の音に対して効果を付与するよう設定する。これにより、次回の図5のステップS205において、現在設定されている歌唱音音色で次のノートオンにより発音される音節に対して、スイッチSWに割り当てられている種類の効果の付与が反映される。次に生成する音に効果を付与する場合、例えば、効果として「しゃくり」等が有用である。
 このように、ステップS417、S418では、次の発音に対して効果が付与され得る。一方、ステップS406、S408では、発音途中から効果が付与され得る。
 本実施の形態によれば、CPU10は、音を生成する際にスイッチSWが操作された場合、音生成モードと、操作されたスイッチSWに割り当てられている種類の効果とに基づいて、前記音を生成する。これにより、音生成時に所望の効果をリアルタイムに付与することができる。例えばユーザは、演奏しながらでも容易に表情付けを行える。また、効果は、発音中の音に付与できるだけでなく、次に生成する音にも付与できるので、演奏表現力が高い。
 また、CPU10は、オンされたスイッチSWに割り当てられている種類の効果が音生成モードに対して有効な場合にだけ、生成する音に対して効果を付与し、無効な場合は効果を付与しない。これにより、スイッチSWに割り当てた効果を所望の音生成モード時にだけ反映させることができる。また、ユーザは、音生成モードを切り替える度に付与したい効果を選び直す必要がない。しかも、音生成モードが切り替わっても、効果を付与するためのスイッチSWの操作は共通なので、操作がしやすい。
 また、設定された音色に基づき音生成モードが判断されるので、ユーザにとって音生成モードの設定が簡単である。
 なお、スイッチSWに割り当てた種類の効果が音生成に反映される状態となっている場合、それをユーザに報知するようにしてもよい。例えば、効果が有効にかかる状況にある場合に、CPU10は、不図示のLED等の表示部を発光させる。なお、スイッチSWの数は1でもよいし、3以上であってもよい。また、本発明が適用される楽器は鍵盤楽器に限らない。
 以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
SW1、SW2 スイッチ(効果操作子)
10 CPU(判断部、割当部、音生成部)

Claims (9)

  1.  少なくとも1つの効果操作子と、
     音生成モードが第1のモードであるか第2のモードであるかを判断する判断部と、
     前記効果操作子に少なくとも1種類の効果を割り当てる割当部と、
     音を生成する際に前記効果操作子が操作された場合、前記判断部により判断されたモードと、操作された前記効果操作子に前記割当部により割り当てられている種類の効果とに基づいて、前記音を生成する音生成部と、を有する音生成装置。
  2.  前記第1のモードは歌唱音を合成して発音するモードであり、前記第2のモードは楽器音を発音するモードである請求項1に記載の音生成装置。
  3.  音色を設定する音色設定部を有し、
     前記判断部は、前記音色設定部により設定された音色に基づき前記モードを判断する請求項1または2に記載の音生成装置。
  4.  前記判断部は、前記音色設定部により設定された音色が歌唱音に属する場合は、前記音生成モードが前記第1のモードであると判断し、前記音色設定部により設定された音色が楽器音に属する場合は、前記音生成モードが前記第2のモードであると判断する請求項3に記載の音生成装置。
  5.  前記音生成部は、前記音を生成する際、前記割り当てられている種類の効果が前記判断部により判断された音生成モードに対して有効な場合は生成する音に対して前記効果を付与し、前記割り当てられている種類の効果が前記判断部により判断された音生成モードに対して無効な場合は生成する音に対して前記効果を付与しない、請求項1~4のいずれか1項に記載の音生成装置。
  6.  前記音生成部は、発音指示に応じて前記音を生成する請求項1~5のいずれか1項に記載の音生成装置。
  7.  前記効果操作子は複数有り、
     前記割当部は効果操作子ごとに前記少なくとも1種類の効果を割り当てる請求項1~6のいずれか1項に記載の音生成装置。
  8.  音生成モードが第1のモードであるか第2のモードであるかを判断する判断ステップと、
     少なくとも1つの効果操作子に少なくとも1種類の効果を割り当てる割当ステップと、
     音を生成する際に前記効果操作子が操作された場合、前記判断ステップにより判断されたモードと、操作された前記効果操作子に前記割当ステップにより割り当てられている種類の効果とに基づいて、前記音を生成する音生成ステップと、を有する音生成方法。
  9.  少なくとも1つの効果操作子と、
     音生成モードが第1のモードであるか第2のモードであるかを判断する判断部と、
     前記効果操作子に少なくとも1種類の効果を割り当てる割当部と、
     音高を指定して発音を指示する音高指定部と、
     音を生成する際に前記効果操作子が操作された場合、前記判断部により判断されたモードと、操作された前記効果操作子に前記割当部により割り当てられている種類の効果とに基づいて、前記音を生成する音生成部と、
     前記音生成部により生成された音を、前記音高指定部により指示された音高で発音する発音部と、を有する楽器。
PCT/JP2017/017435 2017-04-27 2017-04-27 音生成装置及び方法、楽器 WO2018198381A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/017435 WO2018198381A1 (ja) 2017-04-27 2017-04-27 音生成装置及び方法、楽器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/017435 WO2018198381A1 (ja) 2017-04-27 2017-04-27 音生成装置及び方法、楽器

Publications (1)

Publication Number Publication Date
WO2018198381A1 true WO2018198381A1 (ja) 2018-11-01

Family

ID=63919566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/017435 WO2018198381A1 (ja) 2017-04-27 2017-04-27 音生成装置及び方法、楽器

Country Status (1)

Country Link
WO (1) WO2018198381A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205995A (ja) * 1985-03-11 1986-09-12 カシオ計算機株式会社 電子楽器
JPH08185174A (ja) * 1994-12-31 1996-07-16 Casio Comput Co Ltd 音声発生装置
JP2004251926A (ja) * 2003-02-17 2004-09-09 Yamaha Corp 電子楽器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61205995A (ja) * 1985-03-11 1986-09-12 カシオ計算機株式会社 電子楽器
JPH08185174A (ja) * 1994-12-31 1996-07-16 Casio Comput Co Ltd 音声発生装置
JP2004251926A (ja) * 2003-02-17 2004-09-09 Yamaha Corp 電子楽器

Similar Documents

Publication Publication Date Title
JP4748011B2 (ja) 電子鍵盤楽器
US8735709B2 (en) Generation of harmony tone
JP6728754B2 (ja) 発音装置、発音方法および発音プログラム
JP7259817B2 (ja) 電子楽器、方法及びプログラム
JP2023118866A (ja) 電子楽器、方法及びプログラム
US9384717B2 (en) Tone generation assigning apparatus and method
JP6263946B2 (ja) 発音状態表示プログラム、装置及び方法
JP5897805B2 (ja) 楽音制御装置
JP2003288077A (ja) 曲データ出力装置及びプログラム
WO2018198381A1 (ja) 音生成装置及び方法、楽器
EP2860724A2 (en) Computer program, tone generation assigning apparatus and tone generation assigning method
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP2007248880A (ja) 演奏制御装置、およびプログラム
JP2007163710A (ja) 演奏支援装置及びプログラム
JP2020144346A (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
JP4244504B2 (ja) 演奏制御装置
JP6459237B2 (ja) 自動伴奏装置、電子楽器、自動伴奏方法および自動伴奏プログラム
JP2590725B2 (ja) 楽音データ入力装置
WO2023120121A1 (ja) 子音長変更装置、電子楽器、楽器システム、方法及びプログラム
JP6732216B2 (ja) 歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器
JP3674469B2 (ja) 演奏ガイド方法と装置及び記録媒体
JP2008052118A (ja) 電子鍵盤楽器、及びそれに用いるプログラム
JP6787491B2 (ja) 音発生装置及び方法
WO2019026233A1 (ja) 効果制御装置
WO2019003348A1 (ja) 歌唱音効果生成装置及び方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17907021

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17907021

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP