WO2019187119A1 - 効果付与装置および制御方法 - Google Patents

効果付与装置および制御方法 Download PDF

Info

Publication number
WO2019187119A1
WO2019187119A1 PCT/JP2018/013908 JP2018013908W WO2019187119A1 WO 2019187119 A1 WO2019187119 A1 WO 2019187119A1 JP 2018013908 W JP2018013908 W JP 2018013908W WO 2019187119 A1 WO2019187119 A1 WO 2019187119A1
Authority
WO
WIPO (PCT)
Prior art keywords
effect
patch
applying
sound
effect unit
Prior art date
Application number
PCT/JP2018/013908
Other languages
English (en)
French (fr)
Inventor
幸雄 重野
Original Assignee
ローランド株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローランド株式会社 filed Critical ローランド株式会社
Priority to PCT/JP2018/013908 priority Critical patent/WO2019187119A1/ja
Priority to EP18912667.5A priority patent/EP3779960B1/en
Priority to CN201880091611.8A priority patent/CN111902860B/zh
Priority to US17/042,907 priority patent/US11875762B2/en
Priority to JP2020508886A priority patent/JP6995186B2/ja
Publication of WO2019187119A1 publication Critical patent/WO2019187119A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/181Suppression of switching-noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control

Definitions

  • the present invention relates to an apparatus for imparting an acoustic effect.
  • an effect imparting device that processes an audio signal output from an electronic musical instrument and adds an effect such as reverb or chorus
  • digital signal processing devices such as DSP (Digital Signal Processor) have been widely used.
  • DSP Digital Signal Processor
  • Patent Document 1 it is possible to suppress sound interruption when switching effects.
  • the present invention in a form in which parameters are collectively applied to a plurality of effect units by a patch, it is not possible to appropriately determine whether or not a sound break occurs when the patch designation is switched.
  • the present invention has been made in consideration of the above-described problems, and an object thereof is to provide an effect imparting device that can obtain a more natural voice.
  • an effect applying apparatus for applying an effect to the input sound; storage means for storing a plurality of patches including a set of parameters to be applied to the plurality of effect units; input means for accepting designation of the patches; Applying means for applying parameters included in the patch to the plurality of effect units; output means for outputting sound after an effect is applied according to the parameters applied to the plurality of effect units; and specifying the patch
  • a mute means for temporarily muting the output sound after the effect is applied.
  • the effect unit is a unit that gives an effect to the input sound in accordance with specified parameters.
  • the effect unit may be a logical unit.
  • the effect applying apparatus according to the present invention has a configuration in which a plurality of patches including a set of parameters to be applied to a plurality of effect units are stored, and the parameters included in the designated patch can be applied to the plurality of effect units.
  • the mute means determines whether or not there is an effect unit whose effect type is changed in accordance with the designation of the patch among the plurality of effect units. Silence temporarily. The mute may be performed for each effect unit or may be performed for the final output.
  • the parameters of a plurality of effect units are changed, but the effect types of all the effect units are not necessarily changed.
  • the effect type may be the same and only other parameters (for example, delay time, feedback level, etc.) may be changed.
  • the mute process is executed only when there is an effect unit whose effect type is changed with the application of the patch among the plurality of effect units. According to such a configuration, it is possible to exclude a case where the audio signal is not discontinuous, and thus it is possible to minimize a sense of discomfort given to the listener.
  • the mute means has an effect unit whose effect type is changed by the change of the designation of the patch, and the sound to which the effect is given from the effect unit according to the parameter before the change of the designation of the patch is received.
  • the sound after the effect is applied may be temporarily muted.
  • the mute process may be performed under the further condition that the sound after the effect is applied is finally being output from the corresponding effect unit.
  • the effect unit may switch the type of the effect by reading a program corresponding to the effect after the change.
  • the present invention can be suitably applied to an effect applying device that switches the type of effect by loading different programs such as a DSP. This is because the sound after the effect is temporarily interrupted while the program is loaded.
  • the patch includes information specifying an effective state of a channel in which each effect unit is arranged, and the mute means determines the mute based further on information specifying the effective state of the channel. May be a feature.
  • the patch may include information for designating an effective state of each effect unit, and the mute unit may determine the mute based on information for designating an effective state of the effect unit. .
  • the valid state of the channel (effect unit) is information indicating whether the channel (effect unit) is valid or invalid.
  • the validity / invalidity of the channel in which the effect unit is arranged can be designated, depending on the state of the channel, a case where the sound from the effect unit is not finally output may occur.
  • the validity / invalidity of the effect unit itself can be designated, depending on the state of the effect unit, there may be a case where the sound from the effect unit is not finally output. Therefore, the presence / absence of mute processing may be determined further based on the effective state of the channel in which the target effect unit is arranged and the effective state of the effect unit itself.
  • the applying unit when there is an effect unit in which the valid state of the arranged channel is changed before and after the change of the designation of the patch, the applying unit is in a period in which the channel in which the effect unit is arranged is invalid.
  • the parameter may be applied.
  • the application unit may apply the parameter during a period in which the effect unit is invalid.
  • the target effect unit is disabled, or if the channel where the target effect unit is placed is disabled, the sound after the effect is applied will not be output. Cutting and noise do not occur. Therefore, unnecessary mute processing can be avoided by applying the parameter during a period in which the effect unit and the channel state are invalid.
  • this invention can be specified as an effect provision apparatus containing at least one part of the said means. Moreover, it can also specify as an effect provision method which the said effect provision apparatus performs. Moreover, it can also identify as a program for performing the said effect provision method.
  • the above processes and means can be freely combined and implemented as long as no technical contradiction occurs.
  • 3 is an example of a user interface 104. It is a list of parameters applicable to the effect unit. It is a figure explaining the connection form of an effect unit. It is an example of the data structure (patch table) corresponding to a patch. It is a pseudo circuit diagram corresponding to a subroutine executed by the DSP. It is a figure which shows the execution order of a subroutine.
  • the effect imparting apparatus is an apparatus that imparts an acoustic effect by digital signal processing to input sound and outputs the sound after the effect is imparted.
  • the effect applying device 10 includes an audio input terminal 200, an A / D converter 300, a DSP 100, a D / A converter 400, and an audio output terminal 500.
  • the audio input terminal 200 is a terminal for inputting an audio signal.
  • the input audio signal is converted into a digital signal by the A / D converter 300 and processed by the DSP 100.
  • the processed audio is converted into an analog signal by the D / A converter 400 and output from the audio output terminal 500.
  • the DSP 100 is a microprocessor specialized for digital signal processing. In the present embodiment, the DSP 100 performs processing specialized for audio signal processing under the control of the CPU 101 to be described later.
  • the effect applying apparatus 10 includes a CPU (arithmetic processing apparatus) 101, a RAM 102, a ROM 103, and a user interface 104.
  • the program stored in the ROM 103 is loaded into the RAM 102 and executed by the CPU 101, whereby processing described below is performed. Note that all or part of the illustrated functions may be executed using a circuit designed exclusively. Further, the program may be stored or executed by a combination of a main storage device and an auxiliary storage device other than those shown in the drawing.
  • the user interface 104 is an input interface for operating the apparatus and an output interface for presenting information to the user.
  • FIG. 2 is an example of the user interface 104.
  • the user interface 104 includes an operation panel that is an input device and a display device (display) that is an output device.
  • Reference numerals 104A and 104D are displays.
  • the figure indicated by a rectangle in the figure is a push button
  • the figure indicated by a circle is a knob for specifying a value by rotating it.
  • the effect providing apparatus can perform the following operations via the user interface 104.
  • the settings made by the operation are stored as parameters, and the stored parameters are collectively applied when a patch to be described later is designated.
  • (1) Parameter setting for each effect unit The DSP 100 according to the present embodiment provides a logical unit (hereinafter referred to as an effect unit, referred to as FX as necessary) for applying an effect to input sound. Contains.
  • the effect unit is realized by the DSP 100 executing a predetermined program.
  • the CPU 101 performs program assignment and setting of coefficients to be referred to by the program.
  • FIG. 3 is a list of parameters applicable to each of the four effect units.
  • SW is a parameter for designating whether or not to apply an effect.
  • the SW parameter When the SW parameter is OFF, no effect is given and the original sound is output.
  • the SW parameter When the SW parameter is ON, the sound after the effect is given is output. In this way, the SW parameter specifies the effective state of the effect unit.
  • the SW parameter can be specified by a push button.
  • Type is a parameter that specifies the type of effect. In the present embodiment, it is assumed that four types of chorus (Chorus), phaser (Phaser), tremolo (Tremolo), and vibrato (Vibrato) can be specified.
  • Rate is a parameter that specifies the speed at which the effect sound fluctuates.
  • Depth is a parameter that specifies the depth at which the effect sound fluctuates.
  • Level is a parameter that specifies the output volume of the effect sound. Any parameter is represented by a numerical value from 0 to 100 in this embodiment, and can be designated by a knob.
  • the parameters set for each effect unit can be confirmed on the display indicated by reference numeral 104A.
  • FIG. 4 is a diagram for explaining the connection form of the effect units.
  • the left side is the input side
  • the right side is the output side.
  • effects are applied to the input audio signal by FX1 and FX2, respectively, and after mixing, effects are further applied by FX3 and FX4 and output.
  • FIG. 4B the sound imparted with the effect by FX1 and FX3 and the sound imparted with the effect by FX2 and FX4 are mixed and output.
  • a desired effect can be obtained by combining effect units to which arbitrary parameters are applied.
  • connection form of the effect units is also called a chain and can be changed by the interface shown by reference numeral 104B.
  • a desired one can be selected from a plurality of connection forms by using a knob.
  • the chain currently being set is graphically displayed on the display denoted by reference numeral 104D.
  • Channel setting When a plurality of audio paths are configured depending on the connection form of the effect unit, it is possible to set which path is effective.
  • three types of channel A, channel B, and channel A + B can be designated by an interface (push button) indicated by reference numeral 104E.
  • an interface push button
  • FIG. 4A when channel A is designated, only FX1 is valid and the path on which FX2 is arranged is disconnected.
  • FIG. 4B when channel A is designated, only FX1 and FX3 are valid, and the path on which FX2 and FX4 are arranged is disconnected.
  • a patch is a set of data including a set of parameters to be applied to a plurality of effect units, chain settings, and channel settings.
  • FIG. 5 shows a data structure (patch table) corresponding to a patch.
  • the effect providing apparatus has a function of storing a plurality of sets of parameters set via the user interface as patches and applying these parameters collectively when an operation for specifying the patches is performed.
  • a patch is designated by pressing a push button indicated by reference numeral 104F.
  • the parameters included in the corresponding patch are applied at once. That is, the parameters, channel settings, and chain settings of each effect unit are collectively changed.
  • the patch content setting (patch table generation) and the association with the push button may be performed in advance.
  • the above-described means are communicably connected by a bus.
  • the DSP 100 defines four types of subroutines, FX, divider, splitter, and mixer. Based on the set chain, the DSP 100 executes these subroutines in a predetermined order, so that input is performed. The effect is given to the recorded voice. Specifically, based on the set chain, the CPU 101 updates the address table stored in the DSP 100, and the DSP 100 sequentially executes a subroutine with reference to the address table, so that the input voice is recorded. The effect is given to it.
  • FIG. 6 is a diagram showing a process performed by each subroutine by a pseudo circuit.
  • the audio signal input to the DSP 100 is first stored in the buffer (buf) (reference numeral 601), and finally the audio signal stored in the buffer is output (reference numeral 602).
  • the triangle in the figure is a coefficient.
  • the audio signal passes when the coefficient is set to 1.
  • the coefficient may be gradually changed toward a set value with a known interpolation process.
  • FX FX is a subroutine corresponding to an effect unit that gives a specified type of effect to an audio signal, and is separately prepared for four effect units FX1 to FX4.
  • FX gives an effect to an audio signal according to a value corresponding to a parameter designated for each effect unit.
  • a rewritable program memory is allocated to FX, and an effect is given by loading a program corresponding to the type of effect into the program memory.
  • the FX is provided with a path for bypassing the audio signal, and is effective when the SW parameter is OFF. That is, when the SW is ON, the SWon coefficient is 1 and the SWoff coefficient is 0. Further, when the SW parameter is OFF, the SWon coefficient is 0 and the SWoff coefficient is 1.
  • the muteAlg coefficient will be described later.
  • Divider Divider is a subroutine that duplicates the input audio signal. Specifically, the contents of the buffer are copied to the temporary memory A (memA). Divider is executed when the audio path is branched into channel A and channel B. The chA coefficient and the chB coefficient are set based on channel settings. Specifically, the chA coefficient is 1 when the channel A is valid, and the chB coefficient is 1 when the chB coefficient is valid. When channel A + B is valid, both are 1.
  • Splitter Splitter is a subroutine that saves the contents of the buffer to the memory B and reads the contents of the memory A into the buffer.
  • the splitter is a process executed at the final stage of the branched channel A path.
  • the mixer is a subroutine for adding (mixing) the contents of the buffer and the contents of the memory B.
  • the mixer is a process executed when the audio paths of the channel A and the channel B are integrated.
  • Any chain can be expressed by changing the execution order of these subroutines.
  • the chain shown in FIG. 4A can be realized by executing subroutines in the order shown in FIG.
  • the chain shown in FIG. 4B can be realized by executing subroutines in the order shown in FIG. 7B.
  • the DSP 100 holds the execution order of these subroutines in the patch table as a data structure representing a chain. By applying the patch defined in this way to the DSP 100, a preset chain can be called instantly.
  • the parameters of each effect unit are changed together with the chain setting.
  • the DSP 100 operates according to a program, when the Type parameter of the effect unit is changed, the program is loaded inside. That is, in a state in which a certain patch is applied, there arises a problem that sound is interrupted or noise is generated at the moment when another patch is applied.
  • the output can be temporarily muted by setting the muteAlg coefficient shown in FIG. 6 to 0 before and after applying the Type parameter.
  • the mute is unconditionally performed at the timing of applying the patch, unnecessary mute occurs, and the listener may feel uncomfortable.
  • the effect applying apparatus generates an effect unit whose effect type is changed when the designation of the patch is changed, and the sound to which the effect is given by the effect unit. Is finally output, and the final output is muted only when the condition is satisfied.
  • FIG. 8 is a flowchart of processing executed by the CPU 101 according to the present embodiment. The process shown in FIG. 8 is started at a timing when a new patch is designated and applied (timing for patch change).
  • step S11 it is determined whether or not sound interruption occurs with the application of a patch.
  • the sound interruption means that the final output audio signal becomes discontinuous, and a situation such as mute is required.
  • step S111 it is determined whether the chain is changed before and after the application of the patch.
  • step S112 it is determined that sound interruption occurs (step S112). This is because the audio signal becomes discontinuous because the connection relationship of the effect units changes.
  • step S113A it is determined whether or not a sound break due to the effect unit setting occurs before and after applying the patch (referred to as FX sound break determination). Note that the processing in steps S113A to S113D differs only in the target effect unit, and the processing is the same, so only step S113A will be described.
  • step S1131 it is determined whether or not the Type parameter is changed for the target effect unit. If there is no change, the process transitions to step S1135, and it is determined that no sound interruption due to the target effect unit occurs. This is because program loading does not occur.
  • step S1132 If the Type parameter is changed before and after the patch application, it is determined in step S1132 whether the SW parameter remains OFF. Here, if the SW parameter remains OFF and before and after the patch application, sound interruption cannot occur, and the process moves to step S1135. If the change in the SW parameter is any one of OFF to ON, ON to OFF, and ON to ON, sound interruption may occur, and the process transitions to step S1133.
  • step S1133 it is determined whether the target effect unit remains invalid on the chain.
  • “Invalid on the chain” means, for example, a case where the target effect unit is arranged on an invalid channel. If the target effect unit is valid on the chain (including the case where it is changed from valid ⁇ invalid, valid ⁇ valid, invalid ⁇ valid), the process proceeds to step S1134, and the sound is cut off due to the target effect unit. Is determined to occur.
  • step S113A is also executed for FX2-4.
  • step S114 it is determined whether or not it is determined that no sound interruption occurs for all effect units. As a result, if it is determined that no sound interruption occurs for all effect units, the process proceeds to step S115, and it is finally determined that no sound interruption occurs. If even one of the sound interruptions occurs, the process proceeds to step S116, and it is determined that the sound interruption finally occurs. Above, the process of step S11 is complete
  • step S11 If it is determined in step S12—Yes, a mute process is performed in step S13. In this step, mute is performed by setting 0 to the mute coefficient shown in FIG. If it is determined in step S11 that no sound interruption occurs (step S12—No), the process proceeds to step S14.
  • step S14 it is determined whether or not there is a change in the chain before and after applying the patch. If there is a change, the chain is updated (step S15). Specifically, based on the execution order of the subroutines described in items 1 to 7 of the patch table (FIG. 5), the address table referred to when the DSP 100 executes the subroutine is rewritten. In this example, the subroutine is specified by name, but may be specified by address.
  • step S16 the channel is updated. Specifically, when channel A is designated as follows, the channel corresponding to channel B is invalidated by setting 1 for the chA coefficient and 0 for the chB coefficient in FIG. If channel B is designated, the channel corresponding to channel A is invalidated by setting the chA coefficient to 0 and the chB coefficient to 1. When channels A and B are designated, both coefficients are set to 1. As a result, the effect units on both paths become effective.
  • steps S17A to S17D parameters are applied to each effect unit. Note that the processing in steps S17A to S17D differs only in the target effect unit, and the processing is the same, so only step S17A will be described.
  • step S17A SW parameters are applied. Specifically, the following values are set for each coefficient used by FX.
  • Step S172 it is determined whether or not the Type parameter is changed before and after applying the patch. If the Type parameter is changed, the Type parameter is applied in Step S173. Specifically, the CPU 101 reads a program corresponding to the changed Type parameter from the ROM 103 and loads it into a program memory corresponding to the target effect unit. At this time, the mute Alg coefficient of the target effect unit may be temporarily set to 0 and then updated, and then the coefficient may be returned to 1.
  • the Rate parameter, Depth parameter, and Level parameter are applied. Specifically, the value referred to by the program is updated according to the value of each parameter.
  • step S18 it is determined whether or not a mute has occurred in step S13. If the mute has occurred, the mute is canceled (step S19). Specifically, 1 is set to the mute coefficient.
  • the effect applying apparatus determines that there is an effect unit whose effect type is updated before and after applying the patch, and an effective output is obtained from the effect unit. Mute processing is performed on the condition that According to this mode, it is possible to exclude a case in which sound interruption cannot occur, and thus it is possible to suppress occurrence of unnecessary mute processing at the time of applying a patch. In addition, it is possible to suppress a sense of incongruity caused by unnecessary mute processing.
  • the final audio output is muted by rewriting the mute coefficient in steps S13 and S19.
  • muting may be performed using other than the mute coefficient.
  • the mute Alg coefficient of the corresponding effect unit may be operated to mute only the corresponding effect unit.
  • steps S1132 and S1133 if there is no sound output after the effect is applied from the target effect unit and the sound does not change even after the patch is applied, no sound interruption occurs. Judged. However, even in other cases, there may be cases where it is not necessary to mute the target effect unit.
  • FIG. 12A shows an example in which the state after the effect is applied is not output from the target effect unit before and after the application of the patch, and the state is changed to the output state.
  • the presence / absence of sound output after applying the effect can be determined by, for example, the SW parameter, chain setting, or channel setting.
  • the type of effect of the target effect unit is changed, it is determined in the first embodiment that sound interruption occurs.
  • FIG. 12B shows an example of a case where the state after the effect is applied is changed from the target effect unit to the state where it is not output before and after the application of the patch.
  • the type of effect of the target effect unit is changed, it is determined in the first embodiment that sound interruption occurs.
  • the second embodiment is an embodiment in which a case where sound interruption can be avoided is determined and the application timing of the Type parameter is adjusted instead of performing the mute process.
  • FIG. 13 is a detailed flowchart of step S113 in the second embodiment. About the process similar to 1st embodiment, it shows with a dotted line and abbreviate
  • the type update type in the following description is a type that defines the timing when the type parameter is applied in step S17. Specifically, when the Type update type is B, the Type parameter is applied in a period before the output of the sound after the effect is applied. When the Type update type is A, the Type parameter is applied in the period after the output of the sound after the effect is stopped.
  • step S1132A it is determined whether or not the SW parameter after applying the patch is OFF.
  • the affirmative determination is in the case of FIG. 12B, or the case where the sound after applying the effect is not output from the beginning, that is, the case where the parameter is OFF both before and after applying the patch.
  • the Type update type is set to A.
  • step S1132B it is determined whether or not the SW parameter changes from OFF to ON. If the determination is affirmative, this corresponds to the case of FIG. 12A, so the Type update type is set to B.
  • step S1133A it is determined whether or not the target effect unit is invalid on the chain after the patch is applied.
  • the affirmative determination is the case of FIG. 12B, or the case where the sound after the application of the effect is not output from the beginning, that is, the case where both before and after the patch application is invalid on the chain.
  • the Type update type is set to A.
  • step S1133B it is determined whether or not the target effect unit changes from invalid to valid on the chain. If the determination is affirmative, this corresponds to the case of FIG. 12A, so the Type update type is set to B. Other steps are the same as in the first embodiment.
  • step S173 the type parameter of the corresponding effect unit is applied, that is, the program is read at the timing according to the set type update type.
  • the timing control process may not be performed.
  • the mute control is performed by controlling the mute coefficient in FIG. 6, but the mute control may be performed in units of effect units. While the sound may be completely muted during mute, a route that bypasses the original sound may be provided and the route may be activated. At this time, for example, crossfade control as known in the art may be performed.
  • the effect imparting apparatus using the DSP is illustrated, but the present invention may be applied to an effect imparting apparatus other than the DSP.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Stereophonic System (AREA)

Abstract

入力された音声に効果を付与する複数のエフェクトユニットと、前記複数のエフェクトユニットに適用するパラメータの集合を含むパッチを複数記憶する記憶手段と、前記パッチの指定を受け付ける入力手段と、指定された前記パッチに含まれるパラメータを前記複数のエフェクトユニットに適用する適用手段と、前記複数のエフェクトユニットに適用されたパラメータに従って効果が付与された後の音声を出力する出力手段と、前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットが前記複数のエフェクトユニット中にある場合に、出力される効果付与後の音声を一時的に消音するミュート手段と、を有する。

Description

効果付与装置および制御方法
 本発明は、音響効果を付与する装置に関する。
 音楽の分野において、電子楽器等から出力された音声信号を処理し、リバーブやコーラス等といったエフェクトを加える効果付与装置(エフェクター)が利用されている。特に近年では、DSP(Digital Signal Processor)等のデジタル信号処理装置が多く利用されている。デジタル信号処理を行うことで、効果を付与する際のパラメータや複数の効果の組み合わせを容易に切り替えることができるようになる。例えば、効果の付与に利用されるパラメータのセット(パッチと称する)を予め記憶させておき、演奏中にリアルタイムで切り替えることができるようになる。これにより、所望の効果を適切なタイミングで得ることができる。
 一方で、従来のエフェクターでは、付与する効果を切り替える際に、出力される音響信号が不連続になってしまうという課題がある。DSPを利用したエフェクターでは、効果を変更する場合に、対応するプログラムを都度ロードするため、連続した音声信号を出力し続けながら効果の種類を変更することが難しい。例えば、効果を切り替えるごとに出力音声が途切れるといった現象が発生する。
 この課題に対応するため、例えば、特許文献1に記載の効果付与装置では、エフェクトユニットをパイパスして原音を出力する経路を設け、効果の切り替え操作が行われた場合に、エフェクトユニットから出力される音声を一時的に絞って原音を出力し、効果を変更した後に元に戻すクロスフェード制御を行っている。
特開平6-289871号公報
 特許文献1に記載の発明によると、効果の切り替え時における音切れを抑制することができる。しかし、当該発明では、パッチによって複数のエフェクトユニットに対してパラメータを一括して適用する形態において、パッチの指定を切り替えた際に音切れが発生するか否かを適切に判断することができない。
 本発明は上記の課題を考慮してなされたものであり、より自然な音声が得られる効果付与装置を提供することを目的とする。
 上記課題を解決するための、本発明に係る効果付与装置は、
 入力された音声に効果を付与する複数のエフェクトユニットと、前記複数のエフェクトユニットに適用するパラメータの集合を含むパッチを複数記憶する記憶手段と、前記パッチの指定を受け付ける入力手段と、指定された前記パッチに含まれるパラメータを前記複数のエフェクトユニットに適用する適用手段と、前記複数のエフェクトユニットに適用されたパラメータに従って効果が付与された後の音声を出力する出力手段と、前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットが前記複数のエフェクトユニット中にある場合に、出力される効果付与後の音声を一時的に消音するミュート手段と、を有することを特徴とする。
 エフェクトユニットとは、指定されたパラメータに従って、入力された音声に対して効果を付与するユニットである。エフェクトユニットは、論理的なユニットであってもよい。
 本発明に係る効果付与装置は、複数のエフェクトユニットに適用するパラメータの集合を含むパッチを複数記憶し、指定されたパッチに含まれるパラメータを、当該複数のエフェクトユニットに適用可能な構成をとる。
 また、ミュート手段は、複数のエフェクトユニット中に、パッチの指定に伴って効果の種類が変更されるエフェクトユニットがあるか否かを判定し、ある場合に、出力される効果付与後の音声を一時的に消音する。消音は、エフェクトユニットごとに行ってもよいし、最終的な出力に対して行ってもよい。
 パッチの指定を変更した場合、複数のエフェクトユニットのパラメータが変更されるが、必ずしも全てのエフェクトユニットの効果の種類が変更されるとは限らない。例えば、効果の種類が同一で、その他のパラメータ(例えば、ディレイタイムやフィードバックレベル等)のみが変更される場合がある。このような場合、公知の係数補間処理を適用すれば、出力される音声信号は不連続とならないため、ミュートする必要が無い。
 そこで、本発明に係る効果付与装置では、複数のエフェクトユニットのうち、パッチの適用に伴って効果の種類が変更されるエフェクトユニットがある場合にのみ、ミュート処理を実行する。かかる構成によると、音声信号が不連続とならないケースを除外できるため、聴き手に与える違和感を最小限に抑えることができる。
 また、前記ミュート手段は、前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットがあり、かつ、当該エフェクトユニットから、前記パッチの指定の変更前のパラメータに従って効果が付与された音声が前記出力手段によって出力中である場合に、前記効果付与後の音声を一時的に消音することを特徴としてもよい。
 効果の種類が変更される場合であっても、例えば、該当するエフェクトユニットが無効になっている場合など、効果付与後の音声が出力されていない場合、ミュート処理を行う理由が無い。そこで、該当するエフェクトユニットから、効果付与後の音声が最終的に出力中であることをさらなる条件としてミュート処理を行うようにしてもよい。
 また、前記エフェクトユニットは、変更後の効果に対応するプログラムを読み込むことで前記効果の種類を切り替えることを特徴としてもよい。
 本発明は、例えば、DSPなど、異なるプログラムをロードすることで効果の種類を切り替える効果付与装置に好適に適用することができる。かかる形態では、プログラムのロード中において、効果付与後の音声が一時的に途切れるためである。
 また、前記パッチは、各エフェクトユニットが配置されているチャネルの有効状態を指定する情報を含み、前記ミュート手段は、前記チャネルの有効状態を指定する情報にさらに基づいて前記消音の判断を行うことを特徴としてもよい。
 また、前記パッチは、各エフェクトユニットの有効状態を指定する情報を含み、前記ミュート手段は、前記エフェクトユニットの有効状態を指定する情報にさらに基づいて前記消音の判断を行うことを特徴としてもよい。
 チャネル(エフェクトユニット)の有効状態とは、チャネル(エフェクトユニット)が有効であるか無効であるかを表す情報である。
 エフェクトユニットが配置されたチャネルの有効/無効を指定できる場合、チャネルの状態によっては、当該エフェクトユニットからの音声が最終的に出力されないケースが生じうる。同様に、エフェクトユニット自体の有効/無効を指定できる場合、エフェクトユニットの状態によっては、当該エフェクトユニットからの音声が最終的に出力されないケースが生じうる。
 よって、対象となるエフェクトユニットが配置されているチャネルの有効状態や、エフェクトユニット自体の有効状態にさらに基づいてミュート処理の有無を決定するようにしてもよい。
 また、前記適用手段は、前記パッチの指定の変更前後において、配置されているチャネルの有効状態が変更されるエフェクトユニットがある場合に、当該エフェクトユニットが配置されているチャネルが無効である期間に前記パラメータの適用を行うことを特徴としてもよい。
 また、前記適用手段は、前記パッチの指定の変更前後において、有効状態が変更されるエフェクトユニットがある場合に、当該エフェクトユニットが無効である期間に前記パラメータの適用を行うことを特徴としてもよい。
 対象となるエフェクトユニットが無効状態である場合や、対象となるエフェクトユニットが配置されているチャネルが無効状態である場合、効果付与後の音声が出力されないため、効果の種類を変更しても音切れやノイズが発生しない。よって、エフェクトユニットやチャネル状態が無効である期間にパラメータを適用することで、無用なミュート処理を避けることができる。
 なお、本発明は、上記手段の少なくとも一部を含む効果付与装置として特定することができる。また、前記効果付与装置が行う効果付与方法として特定することもできる。また、前記効果付与方法を実行させるためのプログラムとして特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
第一の実施形態に係る効果付与装置10の構成図である。 ユーザインタフェース104の例である。 エフェクトユニットに適用可能なパラメータの一覧である。 エフェクトユニットの接続形態を説明する図である。 パッチに対応するデータ構造(パッチテーブル)の例である。 DSPによって実行されるサブルーチンに対応する擬似回路図である。 サブルーチンの実行順を示す図である。 第一の実施形態に係るCPU101が実行する処理のフローチャートである。 ステップS11における処理を詳細に示したフローチャートである。 ステップS113における処理を詳細に示したフローチャートである。 ステップS17における処理を詳細に示したフローチャートである。 パラメータの適用を行うタイミングを説明する図である。 第二の実施形態におけるステップS113の詳細なフローチャートである。
(第一の実施形態)
 以下、第一の実施形態について図面を参照しながら説明する。
 本実施形態に係る効果付与装置は、入力された音声に対してデジタル信号処理による音響効果の付与を行い、効果付与後の音声を出力する装置である。
 本実施形態に係る効果付与装置10の構成を、図1を参照しながら説明する。
 効果付与装置10は、音声入力端子200、A/Dコンバータ300、DSP100、D/Aコンバータ400、音声出力端子500を有して構成される。
 音声入力端子200は、音声信号を入力する端子である。入力された音声信号は、A/Dコンバータ300によってデジタル信号に変換され、DSP100によって処理される。処理後の音声は、D/Aコンバータ400によってアナログ信号に変換され、音声出力端子500から出力される。
 DSP100は、デジタル信号処理に特化したマイクロプロセッサである。本実施形態では、DSP100は、後述するCPU101の制御下で、音声信号の処理に特化した処理を行う。
 また、本実施形態に係る効果付与装置10は、CPU(演算処理装置)101、RAM102、ROM103、ユーザインタフェース104を有して構成される。
 ROM103に記憶されたプログラムがRAM102にロードされ、CPU101によって実行されることで、以降に説明する処理が行われる。なお、図示した機能の全部または一部は、専用に設計された回路を用いて実行されてもよい。また、図示した以外の、主記憶装置および補助記憶装置の組み合わせによってプログラムの記憶ないし実行を行ってもよい。
 ユーザインタフェース104は、装置に対する操作を行うための入力インタフェース、および、ユーザに情報を提示するための出力インタフェースである。
 図2は、ユーザインタフェース104の例である。本実施形態では、ユーザインタフェース104は、入力装置である操作盤と、出力装置である表示装置(ディスプレイ)からなる。符号104Aおよび104Dがディスプレイである。また、図中の矩形で示した図形は押しボタンであり、円形で示した図形は、回転させることで値の指定を行うツマミである。
 本実施形態に係る効果付与装置は、ユーザインタフェース104を介して以下の操作を行うことができる。なお、操作による設定はそれぞれパラメータとして記憶され、後述するパッチを指定した際に、記憶されたパラメータが一括して適用される。
(1)エフェクトユニットごとのパラメータの設定
 本実施形態に係るDSP100は、入力された音声に対して効果の付与を行う論理的なユニット(以下、エフェクトユニット。必要に応じてFXと表記する)を含んでいる。エフェクトユニットは、所定のプログラムをDSP100が実行することで実現される。プログラムの割り当てと、当該プログラムが参照する係数の設定はCPU101が行う。
 本実施形態では、FX1~FX4の4つのエフェクトユニットが利用可能であり、各エフェクトユニットに適用するパラメータ(付与される効果の種類や深さ等)を、符号104Cで示したインタフェースによって設定することができる。図3は、4つのエフェクトユニットにそれぞれ適用可能なパラメータの一覧である。
 SWは、効果の付与を行うか否かを指定するパラメータである。SWパラメータがOFFの場合、効果の付与は行われず、原音が出力される。また、SWパラメータがONの場合、効果が付与された後の音声が出力される。このようにしてSWパラメータは、エフェクトユニットの有効状態を指定する。SWパラメータは、押しボタンによって指定することができる。
 Typeは、効果の種類を指定するパラメータである。本実施形態では、コーラス(Chorus)、フェイザー(Phaser)、トレモロ(Tremolo)、ビブラート(Vibrato)の四種類が指定可能であるものとする。また、Rateは、エフェクト音が揺らぐ速さを指定するパラメータである。また、Depthは、エフェクト音が揺らぐ深さを指定するパラメータである。また、Levelは、エフェクト音の出力音量を指定するパラメータである。いずれのパラメータも、本実施形態では0から100までの数値によって表され、ツマミによって指定することができる。
 各エフェクトユニットに対して設定されているパラメータは、符号104Aに示したディスプレイにて確認することができる。
(2)チェイン設定
 本実施形態に係るDSP100は、複数のエフェクトユニットの接続形態を設定することができる。
 図4は、エフェクトユニットの接続形態を説明する図である。図中左側が入力側であり、右側が出力側である。例えば、図4(A)の例では、入力された音声信号に対してFX1とFX2でそれぞれ効果を付与し、ミックスした後、さらにFX3およびFX4によって効果を付与して出力する。また、図4(B)の例では、FX1とFX3によって効果を付与した音声と、FX2とFX4によって効果を付与した音声をミックスして出力する。このように、任意のパラメータを適用したエフェクトユニットを組み合わせることにより、所望の効果を得ることができる。
 エフェクトユニットの接続形態はチェインとも呼ばれ、符号104Bで示したインタフェースによって変更することができる。例えば、ツマミによって、複数の接続形態の中から所望のものを選択することができる。図2の例では、符号104Dで示したディスプレイに、現在設定中のチェインがグラフィカルに表示される。
(3)チャネル設定
 エフェクトユニットの接続形態によって複数の音声経路が構成される場合、どの経路を有効にするかを設定することができる。本実施形態では、符号104Eで示したインタフェース(押しボタン)によって、チャネルA、チャネルB、チャネルA+Bの三種類を指定することができる。例えば、図4(A)の例の場合、チャネルAを指定すると、FX1のみが有効になり、FX2が配置されている経路は切り離される。同様に、図4(B)の例の場合、チャネルAを指定すると、FX1およびFX3のみが有効になり、FX2およびFX4が配置されている経路は切り離される。
(4)パッチの指定
 パッチとは、複数のエフェクトユニットに適用するパラメータの集合と、チェイン設定と、チャネル設定と、からなるデータの集合である。図5に、パッチに対応するデータ構造(パッチテーブル)を示す。
 本実施形態に係る効果付与装置は、ユーザインタフェースを介して設定されたパラメータの集合をパッチとして複数記憶し、パッチを指定する操作を行った場合に、これらのパラメータを一括して適用する機能を有している。具体的には、符号104Fで示した押しボタンを押下することによってパッチを指定する。パッチが指定される(すなわち、P1~P4のいずれかのボタンが押下される)と、対応するパッチに含まれるパラメータが一括して適用される。すなわち、各エフェクトユニットのパラメータと、チャネル設定と、チェイン設定が一括して変更される。なお、パッチの内容設定(パッチテーブルの生成)と押しボタンへの関連付けは、予め行うようにしてもよい。
 上述した各手段は、バスによって通信可能に接続される。
 次に、DSP100が、入力された音声に対して効果を付与する具体的な方法について説明する。本実施形態に係るDSP100は、FX,divider、splitter、mixerの4種類のサブルーチンが定義されており、設定されたチェインに基づいて、DSP100がこれらのサブルーチンを所定の順で実行することで、入力された音声に対して効果の付与を行う。
 具体的には、設定されたチェインに基づいて、CPU101が、DSP100に記憶されたアドレステーブルを更新し、DSP100が、当該アドレステーブルを参照して順次サブルーチンを実行することで、入力された音声に対して効果の付与を行う。
 図6は、各サブルーチンによって行われる処理を擬似的な回路によって示した図である。
 なお、ここでは、DSP100に入力された音声信号はまずバッファ(buf)に格納され(符号601)、最終的にバッファに格納された音声信号が出力されるものとする(符号602)。また、図中の三角形は係数である。ここでは、係数に1が設定された場合に音声信号が通過するものとする。なお、係数は、公知の補間処理を伴い、設定された値に向かって徐々に変化させてもよい。
(1)FX
 FXは、音声信号に対して指定された種類の効果を付与するエフェクトユニットに対応するサブルーチンであり、FX1~4の4つのエフェクトユニットに対して個別に用意される。FXは、エフェクトユニットごとに指定されたパラメータに対応する値に従って、音声信号に対して効果の付与を行う。また、FXには、書き換え可能なプログラムメモリが割り当たっており、効果の種類に応じたプログラムを、当該プログラムメモリにロードすることで効果の付与を行う。
 また、FXには、図示したように、音声信号をバイパスする経路が設けられており、SWパラメータがOFFの場合に有効になる。すなわち、SWがONである場合に、SWon係数が1となり、SWoff係数が0となる。また、SWパラメータがOFFである場合に、SWon係数が0となり、SWoff係数が1となる。muteAlg係数については後述する。
(2)divider
 dividerは、入力された音声信号を複製するサブルーチンである。具体的には、バッファの内容を一時メモリA(memA)にコピーする。dividerは、音声経路をチャネルAとチャネルBに分岐させる際に実行される。
 なお、chA係数およびchB係数は、チャネル設定に基づいて設定される。具体的には、チャネルAが有効である場合にchA係数が1となり、chB係数が有効である場合にchB係数が1となる。チャネルA+Bが有効である場合、双方が1となる。
(3)splitter
 splitterは、バッファの内容をメモリBに退避し、メモリAの内容をバッファに読み込むサブルーチンである。splitterは、分岐したチャネルAの経路の最終段で実行される処理である。
(4)mixer
 mixerは、バッファの内容とメモリBの内容を加算(ミックス)するサブルーチンである。mixerは、チャネルAとチャネルBとの音声経路を統合する際に実行される処理である。
 これらのサブルーチンの実行順を変更することで、任意のチェインを表現することができる。例えば、図4(A)に示したチェインは、図7(A)に示した順序でサブルーチンを実行することで実現することができる。また、図4(B)に示したチェインは、図7(B)に示した順序でサブルーチンを実行することで実現することができる。
 本実施形態に係るDSP100は、これらのサブルーチンの実行順を、チェインを表現するデータ構造としてパッチテーブルに保持する。このようにして定義したパッチをDSP100に適用することで、予め設定したチェインを瞬時に呼び出すことができる。
 ところで、新たに適用するパッチをユーザが選択した場合、チェイン設定とともに、各エフェクトユニットのパラメータが変更される。前述したように、DSP100はプログラムによって動作するため、エフェクトユニットのTypeパラメータが変更されると、内部においてプログラムのローディングが発生する。すなわち、あるパッチが適用されている状態において、他のパッチを適用した瞬間に音声が途切れたり、ノイズが発生したりするといった問題が発生する。
 この問題への対策として、Typeパラメータを適用する際に、エフェクトユニットにおいて出力を一時的にミュートするといった方法がある。例えば、Typeパラメータを適用する前後で、図6に示したmuteAlg係数に0を設定することで、出力を一時的にミュートすることができる。
 しかし、パッチを適用するタイミングで無条件にミュートを行うと、必要のないミュートが発生し、逆に聴き手に違和感を与えてしまうことがある。
 これについて詳しく説明する。
 例えば、図4(A)に示したチェインにおいて、チャネルBが有効となっており、かつ、パッチの適用によって、FX1のみに対して効果の種類が変更されたとする。この場合、FX2~4についてはミュートを行う必要がない。しかし、従来技術では、これを判定することができないため、結果として全てのエフェクトユニットについてミュートが行われてしまう。そして、これらのミュートが順次実行されると、結果として音声出力が断続を繰り返すこととなり、違和感の増大につながってしまう。
 これに対応するため、本実施形態に係る効果付与装置は、パッチの指定が変更された場合に、効果の種類が変更されるエフェクトユニットが生じ、かつ、当該エフェクトユニットによって効果が付与された音声が最終出力されていることを判定し、当該条件を満たした場合にのみ、最終出力をミュートする。
 具体的な方法について説明する。
 図8は、本実施形態に係るCPU101が実行する処理のフローチャートである。図8に示した処理は、新たなパッチが指定され、適用されるタイミング(パッチチェンジを行うタイミング)で開始される。
 まず、ステップS11にて、パッチの適用に伴って音切れが発生するか否かを判定する。音切れとは、最終出力される音声信号が不連続となり、ミュートなどの手当てが必要な状況になることを指す。
 ステップS11で行う詳細な処理について、図9を参照して説明する。
 まず、ステップS111で、パッチの適用前後でチェインが変更されるか否かを判定する。ここで、チェインが変更される場合、音切れが発生すると判定する(ステップS112)。エフェクトユニットの接続関係が変わるため、音声信号が不連続となるためである。
 次に、各エフェクトユニットについて、パッチの適用前後で、エフェクトユニットの設定に起因した音切れが発生するかを判定する(FX音切れ判定と称する)。なお、ステップS113A~S113Dの処理は、対象となるエフェクトユニットのみが異なり、その処理は同様であるため、ステップS113Aについてのみ説明を行う。
 ステップS113Aで行う詳細な処理について、図10を参照して説明する。
 まず、ステップS1131で、対象のエフェクトユニットについてTypeパラメータが変更されるかを判定する。ここで、変更が無い場合、処理はステップS1135へ遷移し、対象のエフェクトユニットに起因する音切れは発生しないと判定する。プログラムの読み込みが発生しないためである。
 パッチの適用前後においてTypeパラメータが変更される場合、ステップS1132で、SWパラメータがOFFのままであるかを判定する。ここで、パッチの適用前後においてSWパラメータがOFFのまま変化しない場合、音切れは発生し得ないため、処理はステップS1135へ遷移する。SWパラメータの変化が、OFFからON、ONからOFF、ONからONのいずれかであった場合、音切れが発生し得るため、処理はステップS1133へ遷移する。
 ステップS1133では、対象のエフェクトユニットがチェイン上において無効のままであるかを判定する。ここで、パッチの適用前後において、対象のエフェクトユニットがチェイン上で無効のまま変化しない場合、音切れは発生し得ないため、処理はステップS1135へ遷移する。チェイン上で無効とは、例えば、対象のエフェクトユニットが無効なチャネル上に配置されているような場合である。
 対象のエフェクトユニットが、チェイン上で有効である場合(有効→無効、有効→有効、無効→有効と変化する場合を含む)、処理はステップS1134へ遷移し、対象のエフェクトユニットに起因した音切れが発生すると判定する。
 図9に戻り、説明を続ける。
 ステップS113Aで説明した処理は、FX2~4についても実行される。
 そして、ステップS114において、全てのエフェクトユニットについて音切れが発生しないと判定されたか否かを判定する。この結果、全てのエフェクトユニットについて音切れが発生しないと判定された場合、処理はステップS115へ遷移し、最終的に音切れが発生しないと判定する。一つでも音切れが発生する場合、ステップS116へ遷移し、最終的に音切れが発生すると判定する。
 以上で、ステップS11の処理が終了する。
 図8に戻り、説明を続ける。
 ステップS11で音切れが発生すると判定された場合(ステップS12-Yes)、ステップS13において、ミュート処理が行われる。本ステップでは、図6に示したmute係数に0を設定することで消音を行う。ステップS11で音切れが発生しないと判定された場合(ステップS12-No)、処理はステップS14へ遷移する。
 ステップS14では、パッチの適用前後においてチェインに変更があるか否かを判定し、変更がある場合に、チェインの更新を行う(ステップS15)。具体的には、パッチテーブル(図5)のitem1~7に記載されたサブルーチンの実行順に基づいて、DSP100がサブルーチンを実行する際に参照するアドレステーブルを書き換える。なお、本例ではサブルーチンを名称で特定しているが、アドレスによって特定してもよい。
 ステップS16では、チャネルの更新を行う。具体的には、以下のように、チャネルAが指定されていた場合、図6におけるchA係数に1を、chB係数に0を設定することで、チャネルBに対応する経路を無効にする。また、チャネルBが指定されていた場合、chA係数に0を、chB係数に1を設定することで、チャネルAに対応する経路を無効にする。チャネルAおよびBが指定されていた場合、双方の係数を1に設定する。これにより、双方の経路上にあるエフェクトユニットが有効になる。
 チャネルA:chA=1,chB=0
 チャネルB:chA=0,chB=1
 チャネルA+B:chA=1,chB=1
 ステップS17A~Dでは、各エフェクトユニットに対してパラメータの適用を行う。なお、ステップS17A~S17Dの処理は、対象となるエフェクトユニットのみが異なり、その処理は同様であるため、ステップS17Aについてのみ説明を行う。
 ステップS17Aで行う詳細な処理について、図11を参照して説明する。
 まず、ステップS171で、SWパラメータの適用を行う。具体的には、FXが利用する各係数に対して以下の値を設定する。
 SWパラメータがONである場合:SWon=1,SWoff=0
 SWパラメータがOFFである場場合:SWon=0,SWoff=1
 次に、ステップS172で、パッチの適用前後でTypeパラメータが変更されるかを判定し、変更される場合、ステップS173で、Typeパラメータの適用を行う。具体的には、CPU101が、変更後のTypeパラメータに対応するプログラムをROM103から読み出し、対象のエフェクトユニットに対応するプログラムメモリにロードする。
 なお、この際、対象のエフェクトユニットのmuteAlg係数に一時的に0を設定したのちに更新を行い、その後、係数を1に戻すようにしてもよい。
 次に、ステップS174~S176で、Rateパラメータ,Depthパラメータ,Levelパラメータの適用を行う。具体的には、各パラメータの値に応じて、プログラムによって参照される値を更新する。
 図8に戻り、説明を続ける。
 ステップS18では、ステップS13においてミュートが発生したか否かを判定し、発生中である場合に、当該ミュートの解除を行う(ステップS19)。具体的には、mute係数に1を設定する。
 以上説明したように、第一の実施形態に係る効果付与装置は、パッチの適用前後において効果の種類が更新されるエフェクトユニットがあることを判定し、当該エフェクトユニットから有効な出力が得られていることを条件としてミュート処理を行う。かかる形態によると、音切れが発生し得ないケースを除外することができるため、パッチの適用時における無用なミュート処理の発生を抑制することができる。また、無用なミュート処理によって発生する違和感を抑制することができる。
 なお、本実施形態では、ステップS13およびS19においてmute係数を書き換えることで、最終的な音声出力をミュートした。しかし、複数のエフェクトユニットのうち、音切れの原因となるエフェクトユニットが単独である場合、mute係数以外によってミュートを行うようにしてもよい。例えば、ステップS13およびS19において、対応するエフェクトユニットのmuteAlg係数を操作することで、対応するエフェクトユニットに対してのみミュートを行うようにしてもよい。
(第二の実施形態)
 第一の実施形態では、ステップS1132およびS1133において、対象のエフェクトユニットから効果付与後の音が出力されない状態にあり、かつ、パッチの適用後においてもこれが変化しない場合に、音切れが発生しないと判定した。しかし、これ以外のケースであっても、対象のエフェクトユニットをミュートさせる必要がないケースが発生しうる。
 これについて、図12を参照して説明する。
 図12(A)は、パッチの適用前後において、対象のエフェクトユニットから効果付与後の音が出力されない状態から、出力される状態に変更される場合の例である。効果付与後の音の出力有無は、例えば、SWパラメータ、チェイン設定やチャネル設定によって判定することができる。本ケースにおいて、対象のエフェクトユニットの効果の種類が変更される場合、第一の実施形態では、音切れが発生すると判定される。
 しかし、本ケースの場合、効果付与後の音が出力されない期間(1)が存在するため、この期間においてTypeパラメータの適用を行えば、音切れが発生しない。
 図12(B)は、パッチの適用前後において、対象のエフェクトユニットから効果付与後の音が出力される状態から、出力されない状態に変更される場合の例である。本ケースにおいて、対象のエフェクトユニットの効果の種類が変更される場合、第一の実施形態では、音切れが発生すると判定される。
 しかし、本ケースの場合も、効果付与後の音が出力されない期間(2)が存在するため、この期間においてTypeパラメータの適用を行えば、音切れが発生しない。
 第二の実施形態は、このように、音切れを回避できるケースを判定し、ミュート処理を行う代わりに、Typeパラメータの適用タイミングを調整する実施形態である。
 図13は、第二の実施形態におけるステップS113の詳細なフローチャートである。第一の実施形態と同様の処理については、点線で図示し、説明は省略する。なお、以下の説明におけるType更新種別とは、ステップS17においてTypeパラメータを適用する際のタイミングを規定する種別である。具体的には、Type更新種別がBである場合、効果付与後の音の出力が開始される前の期間においてTypeパラメータを適用する。また、Type更新種別がAである場合、効果付与後の音の出力が停止した後の期間においてTypeパラメータを適用する。
 第二の実施形態では、まず、ステップS1132Aにて、パッチを適用した後におけるSWパラメータがOFFであるか否かを判定する。ここで肯定判定となるのは、図12(B)のケースであるか、そもそも効果付与後の音が最初から出力されないケース、すなわち、パッチの適用前後においてともに当該パラメータがOFFであるケースである。この場合、Type更新種別をAに設定する。
 次に、ステップS1132Bにて、SWパラメータがOFFからONに変化するか否かを判定する。ここで肯定判定であった場合、図12(A)のケースに該当するため、Type更新種別をBに設定する。
 次に、ステップS1133Aにて、パッチの適用後において、対象のエフェクトユニットがチェイン上で無効であるか否かを判定する。ここで肯定判定となるのは、図12(B)のケースであるか、そもそも効果付与後の音が最初から出力されないケース、すなわち、パッチの適用前後においてともにチェイン上で無効であるケースである。この場合、Type更新種別をAに設定する。
 次に、ステップS1133Bにて、対象のエフェクトユニットがチェイン上において無効から有効に変化するか否かを判定する。ここで肯定判定であった場合、図12(A)のケースに該当するため、Type更新種別をBに設定する。
 その他のステップについては、第一の実施形態と同様である。
 さらに、第二の実施形態では、ステップS173において、設定されたType更新種別に従ったタイミングで、対応するエフェクトユニットのTypeパラメータを適用、すなわちプログラムの読み込みを行う。これにより、ミュート処理を行わずとも、音切れを回避できることができるようになる。なお、Type更新種別が設定されていない場合、タイミングの制御処理は行わなくてもよい。
(変形例)
 上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
 例えば、実施形態の説明では、図6におけるmute係数を制御することでミュート制御を行ったが、ミュート制御はエフェクトユニット単位で行ってもよい。
 また、ミュート中は完全に消音してもよいが、原音をバイパスする経路を設け、当該経路をアクティブにしてもよい。この際、例えば、公知技術にあるようなクロスフェード制御を行うようにしてもよい。
 また、実施形態の説明では、DSPを用いた効果付与装置を例示したが、本発明は、DSP以外による効果付与装置に適用してもよい。
 10:効果付与装置
 100:DSP
 200:音声入力端子
 300:A/Dコンバータ
 400:D/Aコンバータ
 500:音声出力端子

Claims (9)

  1.  入力された音声に効果を付与する複数のエフェクトユニットと、
     前記複数のエフェクトユニットに適用するパラメータの集合を含むパッチを複数記憶する記憶手段と、
     前記パッチの指定を受け付ける入力手段と、
     指定された前記パッチに含まれるパラメータを前記複数のエフェクトユニットに適用する適用手段と、
     前記複数のエフェクトユニットに適用されたパラメータに従って効果が付与された後の音声を出力する出力手段と、
     前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットが前記複数のエフェクトユニット中にある場合に、出力される効果付与後の音声を一時的に消音するミュート手段と、
     を有する、効果付与装置。
  2.  前記ミュート手段は、前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットがあり、かつ、当該エフェクトユニットから、前記パッチの指定の変更前のパラメータに従って効果が付与された音声が前記出力手段によって出力中である場合に、前記効果付与後の音声を一時的に消音する
     ことを特徴とする、請求項1に記載の効果付与装置。
  3.  前記エフェクトユニットは、変更後の効果に対応するプログラムを読み込むことで前記効果の種類を切り替える
     ことを特徴とする、請求項2に記載の効果付与装置。
  4.  前記パッチは、各エフェクトユニットが配置されているチャネルの有効状態を指定する情報を含み、
     前記ミュート手段は、前記チャネルの有効状態を指定する情報にさらに基づいて前記消音の判断を行う
     ことを特徴とする、請求項1から3のいずれかに記載の効果付与装置。
  5.  前記適用手段は、前記パッチの指定の変更前後において、配置されているチャネルの有効状態が変更されるエフェクトユニットがある場合に、当該エフェクトユニットが配置されているチャネルが無効である期間に前記パラメータの適用を行う
     ことを特徴とする、請求項4に記載の効果付与装置。
  6.  前記パッチは、各エフェクトユニットの有効状態を指定する情報を含み、
     前記ミュート手段は、前記エフェクトユニットの有効状態を指定する情報にさらに基づいて前記消音の判断を行う
     ことを特徴とする、請求項1から5のいずれかに記載の効果付与装置。
  7.  前記適用手段は、前記パッチの指定の変更前後において、有効状態が変更されるエフェクトユニットがある場合に、当該エフェクトユニットが無効である期間に前記パラメータの適用を行う
     ことを特徴とする、請求項6に記載の効果付与装置。
  8.  入力された音声に効果を付与する複数のエフェクトユニットを制御する制御方法であって、
     前記複数のエフェクトユニットに適用するパラメータの集合を含むパッチを取得する取得ステップと、
     指定された前記パッチに含まれるパラメータを前記複数のエフェクトユニットに適用する適用ステップと、
     前記パッチの指定の変更によって効果の種類が変更されるエフェクトユニットが前記複数のエフェクトユニット中にある場合に、出力される効果付与後の音声を一時的に消音するミュートステップと、
     を含む、制御方法。
  9.  請求項8に記載の制御方法をコンピュータに実行させるためのプログラム。
PCT/JP2018/013908 2018-03-30 2018-03-30 効果付与装置および制御方法 WO2019187119A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/JP2018/013908 WO2019187119A1 (ja) 2018-03-30 2018-03-30 効果付与装置および制御方法
EP18912667.5A EP3779960B1 (en) 2018-03-30 2018-03-30 Effect imparting device and control method
CN201880091611.8A CN111902860B (zh) 2018-03-30 2018-03-30 效果赋予装置、控制方法及其记录媒体
US17/042,907 US11875762B2 (en) 2018-03-30 2018-03-30 Effect imparting device, control method and non-transitory computer readable medium
JP2020508886A JP6995186B2 (ja) 2018-03-30 2018-03-30 効果付与装置および制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/013908 WO2019187119A1 (ja) 2018-03-30 2018-03-30 効果付与装置および制御方法

Publications (1)

Publication Number Publication Date
WO2019187119A1 true WO2019187119A1 (ja) 2019-10-03

Family

ID=68058130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/013908 WO2019187119A1 (ja) 2018-03-30 2018-03-30 効果付与装置および制御方法

Country Status (5)

Country Link
US (1) US11875762B2 (ja)
EP (1) EP3779960B1 (ja)
JP (1) JP6995186B2 (ja)
CN (1) CN111902860B (ja)
WO (1) WO2019187119A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683343A (ja) * 1992-09-01 1994-03-25 Yamaha Corp 効果付与装置
JPH06289871A (ja) 1993-04-05 1994-10-18 Yamaha Corp 効果付与装置
JPH08221065A (ja) * 1995-02-09 1996-08-30 Roland Corp ディジタルエフェクタのパッチ切換え装置
JPH11231873A (ja) * 1998-02-09 1999-08-27 Casio Comput Co Ltd 効果付加装置
JP2010181723A (ja) * 2009-02-06 2010-08-19 Yamaha Corp 信号処理集積回路及び効果付与装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5570424A (en) * 1992-11-28 1996-10-29 Yamaha Corporation Sound effector capable of imparting plural sound effects like distortion and other effects
JPH0830271A (ja) * 1994-07-14 1996-02-02 Yamaha Corp エフェクタ
JP2005012728A (ja) * 2003-06-23 2005-01-13 Casio Comput Co Ltd フィルタ装置およびフィルタ処理プログラム
JP6424421B2 (ja) * 2013-11-01 2018-11-21 ヤマハ株式会社 音響装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683343A (ja) * 1992-09-01 1994-03-25 Yamaha Corp 効果付与装置
JPH06289871A (ja) 1993-04-05 1994-10-18 Yamaha Corp 効果付与装置
JPH08221065A (ja) * 1995-02-09 1996-08-30 Roland Corp ディジタルエフェクタのパッチ切換え装置
JPH11231873A (ja) * 1998-02-09 1999-08-27 Casio Comput Co Ltd 効果付加装置
JP2010181723A (ja) * 2009-02-06 2010-08-19 Yamaha Corp 信号処理集積回路及び効果付与装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3779960A4

Also Published As

Publication number Publication date
EP3779960A4 (en) 2021-11-10
EP3779960B1 (en) 2023-11-22
US11875762B2 (en) 2024-01-16
JP6995186B2 (ja) 2022-01-14
JPWO2019187119A1 (ja) 2021-02-12
CN111902860B (zh) 2024-10-11
US20210056940A1 (en) 2021-02-25
CN111902860A (zh) 2020-11-06
EP3779960A1 (en) 2021-02-17

Similar Documents

Publication Publication Date Title
US7139625B2 (en) Audio signal processing device
JP6424421B2 (ja) 音響装置
WO2019187119A1 (ja) 効果付与装置および制御方法
JP2013110585A (ja) 音響機器
US7392103B2 (en) Audio signal processing device
JP5533386B2 (ja) 音響信号処理装置
US10620907B2 (en) Parameter setting device and method in signal processing apparatus
JP3620477B2 (ja) 信号情報表示装置
JP6103487B2 (ja) パラメータセットの設定方法および設定装置
JP6696574B2 (ja) 音処理装置及び方法
JP2011024169A (ja) ミキシングコンソール
JP6417879B2 (ja) パラメータ設定装置
JP4626626B2 (ja) 音響機器
WO2017013762A1 (ja) 音処理装置および音処理方法
JP2011035870A (ja) 音響信号処理装置
JP4107250B2 (ja) ミキシング装置
JP3985697B2 (ja) パラメータ設定装置およびパラメータ設定方法を実現するためのプログラム
JP2018117245A (ja) 音処理装置及び方法
US11750975B2 (en) Signal processing device, signal processing method, and recording medium
JP4687759B2 (ja) 演奏データ再生装置及びプログラム
JP3375227B2 (ja) ディジタルエフェクタのパッチ切換え装置
JP2005051320A (ja) ディジタルミキシング装置
JP5515976B2 (ja) デジタルオーディオミキサ
JP2005323060A (ja) オーディオ信号のミキシング演算方法
JP2005027156A (ja) 音響処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18912667

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020508886

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2018912667

Country of ref document: EP