WO2021065041A1 - 制御方法、制御システム、及び記憶媒体 - Google Patents

制御方法、制御システム、及び記憶媒体 Download PDF

Info

Publication number
WO2021065041A1
WO2021065041A1 PCT/JP2020/013576 JP2020013576W WO2021065041A1 WO 2021065041 A1 WO2021065041 A1 WO 2021065041A1 JP 2020013576 W JP2020013576 W JP 2020013576W WO 2021065041 A1 WO2021065041 A1 WO 2021065041A1
Authority
WO
WIPO (PCT)
Prior art keywords
frequency response
characteristic
amplitude characteristic
target
response
Prior art date
Application number
PCT/JP2020/013576
Other languages
English (en)
French (fr)
Inventor
健治 石塚
田宮 健一
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to EP20872619.0A priority Critical patent/EP4040675A1/en
Publication of WO2021065041A1 publication Critical patent/WO2021065041A1/ja
Priority to US17/701,028 priority patent/US12041430B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0294Variable filters; Programmable filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/06Non-recursive filters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H17/00Networks using digital techniques
    • H03H17/02Frequency selective networks
    • H03H17/0294Variable filters; Programmable filters
    • H03H2017/0297Coefficients derived from input parameters

Definitions

  • the present invention relates to a control method, a control system, and a storage medium.
  • Patent Document 1 describes a filter in which a target amplitude characteristic and a target phase characteristic are set independently. The latency of this filter changes according to the set target amplitude characteristic and target phase characteristic.
  • Patent Document 1 does not consider the case where the latency is a predetermined value. Since the filter of Patent Document 1 has a finite length, the frequency response defined by these cannot be accommodated in the filter unless some compromise is made between the target amplitude characteristic and the target phase characteristic. When trying to fit the frequency response in the filter, there is a large difference between the amplitude characteristic of the frequency response and the target amplitude characteristic.
  • the present invention has been made in view of the above problems, and an object of the present invention is to reduce the difference between the amplitude characteristic of the frequency response and the target amplitude characteristic.
  • the control method is a method of controlling the frequency response of a filter that processes an audio signal, and the frequency response is defined by an amplitude characteristic and a phase characteristic.
  • the target amplitude characteristic, the target phase characteristic, and the latency value are acquired, the first frequency response is obtained according to the target amplitude characteristic and the target phase characteristic, and the latency applied to the first frequency response is the latency value.
  • the first frequency response is processed so as to satisfy the above condition, the second frequency response is obtained, and the difference between the amplitude characteristic of the second frequency response and the target amplitude characteristic becomes small.
  • the frequency response is corrected to obtain the third frequency response set in the filter.
  • the control system is a control system that controls the frequency response of a filter that processes an audio signal and includes one or more processors and one or more memories.
  • the frequency response has an amplitude characteristic and a phase characteristic.
  • the processor of 1 or more acquires the target amplitude characteristic, the target phase characteristic, and the latency value, and the target
  • the first frequency response is obtained according to the amplitude characteristic and the target phase characteristic, and the first frequency response is processed so that the latency applied to the first frequency response satisfies the latency value to obtain the second frequency response.
  • the second frequency response is corrected so that the difference between the amplitude characteristic of the second frequency response and the target amplitude characteristic becomes small, and the third frequency response set in the filter is obtained.
  • the storage medium is one or more storage media for storing a program that can be read by a computer that controls the frequency response of a filter that processes an audio signal, and the frequency response is defined by an amplitude characteristic and a phase characteristic.
  • the program acquires the target amplitude characteristic, the target phase characteristic, and the latency value from one or more processors, and obtains the first frequency response according to the target amplitude characteristic and the target phase characteristic.
  • the first frequency response is processed to obtain the second frequency response so that the latency applied to the first frequency response satisfies the latency value, and the amplitude characteristic of the second frequency response and the target amplitude characteristic are obtained.
  • the second frequency response is corrected so that the difference between the above and the second frequency is small, and the operation of obtaining the third frequency response set in the filter is performed.
  • the difference between the amplitude characteristic of the frequency response and the target amplitude characteristic can be reduced.
  • FIG. 1 is a diagram showing an example of a control device according to an embodiment.
  • the control device 10 controls the frequency response of the filter that processes the audio signal.
  • the control device 10 is a digital mixer, a signal processing processor, an audio amplifier, an electronic musical instrument, a personal computer, a tablet terminal, a smartphone, or a digital assistant.
  • the audio signal is a digital or analog signal indicating sound.
  • a filter is a circuit that processes an input audio signal and outputs it.
  • the filter of the present embodiment is a finite length FIR (Fiinite Impulse Response) filter.
  • the frequency response is a filter characteristic on the time axis.
  • the frequency response is defined by the amplitude characteristic and the phase characteristic.
  • the frequency response is used to set the coefficients of the filter. Controlling the frequency response means obtaining the frequency response.
  • obtaining means obtaining as a result of processing.
  • the control device 10 "obtains” the frequency response because the frequency response is obtained as a result of processing such as an inverse Fourier transform.
  • Get can also be rephrased as creating, defining, or generating.
  • acquire means to receive.
  • the control device 10 acquires the specified information.
  • Acquire can be paraphrased as receiving. In this embodiment, “obtain” and “acquire” are used properly in this way.
  • the control device 10 includes a CPU 11, a non-volatile memory 12, a RAM 13, an operation unit 14, a display unit 15, an input unit 16, an SPU (Signal Processing Unit) 17, and a DAC (Digital Analog Converter) 18. ..
  • the control device 10 is connected to the powered speaker 20.
  • the speaker 20 may be integrated with the control device 10.
  • the CPU 11 includes at least one processor.
  • the CPU 11 executes a predetermined process based on the program and data stored in the non-volatile memory 12.
  • the non-volatile memory 12 is a memory such as a ROM, an EPROM, a flash memory, or a hard disk.
  • the RAM 13 is an example of a volatile memory.
  • the operation unit 14 is an input device such as a touch panel, a keyboard, a mouse, a button, or a lever.
  • the display unit 15 is a display such as a liquid crystal display or an organic EL display.
  • the input unit 16 acquires an audio signal.
  • the input unit 16 acquires a digital audio signal.
  • the input unit 16 may acquire an analog audio signal.
  • the input unit 16 converts the analog audio signal into a digital audio signal by using the A / D converter.
  • the input unit 16 includes an interface that receives an input of an audio signal from the outside.
  • the input unit 16 may acquire the voice data stored in the non-volatile memory 12.
  • the input unit 16 inputs the acquired audio signal to the SPU 17.
  • the SPU 17 includes a filter that processes the input audio signal.
  • FIG. 2 is a diagram showing an example of the filter of SPU17.
  • the filter F includes delay circuits Z1 to Zn-1 and multipliers M1 to Mn. n is the number of taps of the filter F. n may be any natural number. Coefficients ⁇ 1 to ⁇ n are set for each of the multipliers M1 to Mn. The coefficients ⁇ 1 to ⁇ n are values corresponding to the third frequency response described later.
  • the filter F is an FIR filter that convolves the coefficients ⁇ 1 to ⁇ n into the voice signal.
  • the audio signal input from the input unit 16 is input to the multiplier M1 and the delay circuit Z1.
  • the audio signal input to the delay circuit Z1 is delayed by a predetermined time and input to the multiplier M2 and the delay circuit Z2.
  • the voice signal is delayed by each of the delay circuits Z3 to Zn-1.
  • the delayed audio signal is input to each of the multipliers M3 to Mn.
  • Each of the multipliers M1 to Mn multiplies the audio signal input to itself by the coefficients ⁇ 1 to ⁇ n.
  • Each of the multipliers M1 to Mn inputs an audio signal multiplied by its own coefficient ⁇ 1 to ⁇ n to the adder A.
  • the adder A adds the audio signals output from each of the multipliers M1 to Mn.
  • the adder A inputs the added audio signal to the DAC 18.
  • DAC18 is a circuit that converts a digital audio signal into an analog audio signal.
  • the DAC 18 outputs the converted analog audio signal to the powered speaker 20.
  • the speaker 20 outputs a sound corresponding to the input analog audio signal.
  • control device 10 may include a communication interface for wired communication or wireless communication.
  • control device 10 may include a reading device (for example, an optical disk drive or a memory card slot) that reads a computer-readable information storage medium.
  • control device 10 may include an input / output terminal (for example, a USB port) for inputting / outputting data.
  • the programs and data described as being stored in the non-volatile memory 12 in the present embodiment may be supplied to the control device 10 via a communication interface, a reading device, or an input / output terminal.
  • FIG. 3 is a block diagram showing an example of the functions realized by the control device 10.
  • FIG. 4 is a diagram showing an example of the frequency response controlled by the control device 10.
  • the first acquisition unit 100 target amplitude characteristic acquisition unit
  • the second acquisition unit 101 target phase characteristic acquisition unit
  • the third acquisition unit 102 latency value acquisition unit
  • 4th acquisition unit 103 priority acquisition unit
  • 1st processing unit 104 (1st frequency response processing unit
  • 2nd processing unit 105 (2nd frequency response processing unit
  • 3rd processing unit 106 3rd frequency response
  • the processing unit) and the display control unit 107 are realized. These functions are mainly realized by the CPU 11.
  • the first acquisition unit 100 acquires the target amplitude characteristic r1.
  • the target amplitude characteristic r1 is a target amplitude characteristic (ideal amplitude characteristic).
  • the amplitude characteristic is a characteristic of amplitude on the frequency axis. As shown in FIG. 4, the horizontal axis of the target amplitude characteristic r1 indicates the frequency. The vertical axis of the target amplitude characteristic r1 indicates the change (gain) of the amplitude.
  • the curve of the target amplitude characteristic r1 indicates the magnitude of the amplitude for each frequency.
  • the target amplitude characteristic r1 is set according to the user operation.
  • the user specifies the target amplitude characteristic r1 on the filter control screen described later.
  • the first acquisition unit 100 acquires the target amplitude characteristic r1 designated by the user operation and records it in the RAM 13.
  • the user operation is not limited to the operation on the filter control screen, and may be another operation using the operation unit 14.
  • the target amplitude characteristic r1 may be directly specified from the button or lever of the operation unit 14 instead of the user operation using the screen.
  • the target amplitude characteristic r1 does not have to be specified by the user.
  • the target amplitude characteristic r1 shows a predetermined curve.
  • the target amplitude characteristic r1 is stored in advance in the non-volatile memory 12.
  • the first acquisition unit 100 acquires the target amplitude characteristic r1 stored in advance in the non-volatile memory 12.
  • a plurality of target amplitude characteristics r1 may be stored in advance in the non-volatile memory 12. In this case, the first acquisition unit 100 acquires any of the plurality of target amplitude characteristics r1.
  • the first acquisition unit 100 acquires the target amplitude characteristic r1 selected by the user.
  • the target amplitude characteristic r1 may be automatically set based on the frequency amplitude characteristic of the room measured by emitting a test sound from the speaker 20. For example, the target amplitude characteristic r1 that suppresses the peak of the frequency amplitude characteristic may be automatically set.
  • the second acquisition unit 101 acquires the target phase characteristic r2.
  • the target phase characteristic r2 is a target phase characteristic (ideal phase characteristic).
  • the phase characteristic is a characteristic of the phase on the frequency axis. As shown in FIG. 4, the horizontal axis of the target phase characteristic r2 indicates the frequency. The vertical axis of the target phase characteristic r2 indicates the phase change (degree of lead or lag). The curve of the target phase characteristic r2 shows the phase change for each frequency.
  • the target phase characteristic r2 is set according to the user operation.
  • the user specifies the target phase characteristic r2 on the filter control screen described later.
  • the second acquisition unit 101 acquires the target phase characteristic r2 designated by the user operation and records it in the RAM 13.
  • the user operation is not limited to the operation on the filter control screen, and may be another operation using the operation unit 14.
  • the target phase characteristic r2 may be directly specified from the button or lever of the operation unit 14 instead of the user operation using the screen.
  • the target phase characteristic r2 does not have to be specified by the user.
  • the target phase characteristic r2 shows a predetermined curve.
  • this target phase characteristic is stored in advance in the non-volatile memory 12.
  • the second acquisition unit 101 acquires the target phase characteristic r2 stored in advance in the non-volatile memory 12.
  • a plurality of target phase characteristics r2 may be stored in advance in the non-volatile memory 12.
  • the second acquisition unit 101 acquires any of the plurality of target phase characteristics r2.
  • the second acquisition unit 101 acquires the target phase characteristic r2 selected by the user.
  • the target phase characteristic r2 may be automatically set based on the frequency phase characteristic of the room measured by emitting a test sound from the speaker 20. For example, the target phase characteristic r2 that smoothes the frequency phase characteristic may be automatically set.
  • the third acquisition unit 102 acquires the latency value L.
  • the latency value L is a numerical value indicating the latency (time length) of the filter. Latency is the delay from the audio signal input to the filter of the audio signal that has passed through the filter. The larger the latency value L, the more the sound is delayed by the filter.
  • the latency value L is indicated by a numerical value within a predetermined numerical range. For example, the latency value L is indicated by a numerical value of 0 milliseconds or more and T milliseconds or less. T is a positive number indicating the upper limit of the latency value L.
  • the latency value L is set according to the user operation.
  • the user specifies the latency value L on the filter screen described later.
  • the third acquisition unit 102 acquires the latency value L specified by the user operation and records it in the RAM 13.
  • the user operation is not limited to the operation on the filter control screen, and may be another operation using the operation unit 14.
  • the latency value L may be specified directly from the button or lever of the operation unit 14 instead of the user operation using the screen.
  • the latency value L does not have to be specified by the user.
  • the latency value L is a predetermined value.
  • this latency value L is stored in advance in the non-volatile memory 12.
  • the third acquisition unit 102 acquires the latency value L stored in advance in the non-volatile memory 12.
  • a plurality of latency values L may be stored in advance in the non-volatile memory 12.
  • the third acquisition unit 102 acquires any of the plurality of latency values L.
  • the third acquisition unit 102 acquires the latency value L selected by the user.
  • the fourth acquisition unit 103 acquires the priority P.
  • the priority P is a numerical value indicating the degree of correction of the frequency response.
  • priority P indicates the ratio of correction of the amplitude characteristic. In this case, the higher the priority P, the more the frequency response is corrected so that the amplitude characteristic is prioritized.
  • the priority P is indicated by a numerical value within a predetermined numerical range. For example, the priority P is indicated by a numerical value of 0 or more and 1 or less.
  • the priority P is set according to the user operation.
  • the user specifies the priority P on the filter screen described later.
  • the fourth acquisition unit 103 acquires the priority P designated by the user operation and records it in the RAM 13.
  • the user operation is not limited to the operation on the filter control screen, and may be another operation using the operation unit 14.
  • the priority P may be specified directly from the button or lever of the operation unit 14 instead of the user operation using the screen.
  • the priority P does not have to be specified by the user.
  • the priority P is a predetermined value.
  • this priority P is stored in advance in the non-volatile memory 12.
  • the fourth acquisition unit 103 acquires the priority P stored in advance in the non-volatile memory 12.
  • a plurality of priorities P may be stored in advance in the non-volatile memory 12.
  • the fourth acquisition unit 103 acquires any of the plurality of priorities P.
  • the fourth acquisition unit 103 acquires the priority P selected by the user.
  • it may be automatically determined based on a predetermined rule.
  • the value of priority P may be automatically determined based on the Euclidean distance between the amplitude characteristic of the filter and the target amplitude characteristic.
  • the first processing unit 104 obtains the first impulse response IR1 according to the first frequency response FR1 including the target amplitude characteristic r1 and the target phase characteristic r2.
  • the response FR1 in the frequency domain is equivalent to the response IR in the time domain.
  • the first processing unit 104 performs an inverse Fourier transform (iFFT) on the response FR1 to obtain the response IR1.
  • the response FR1 is converted from the frequency domain to the time domain by the inverse Fourier transform. Therefore, the horizontal axis of the response IR1 indicates time.
  • the vertical axis of the response IR1 indicates the magnitude of the coefficient of the filter F (power in FIG. 4).
  • the curve of response IR1 indicates the magnitude of the coefficient for each time (for each tap). Further, the response IR1 has a peak near the center (time zero). If the frequency resolution of the response FR1 is equal to or less than the resolution corresponding to the number of taps of the filter F, the obtained response IR1 accurately corresponds to the response FR1. If it is higher than that resolution, the resulting response IR1 will include an error.
  • the second processing unit 105 processes the response IR1 so that the latency applied to the response IR1 satisfies the latency value L, and obtains the second impulse response IR2.
  • the response IR2 corresponds to the second frequency response FR2, which has a predetermined latency and is close to the response FR1.
  • the second processing unit 105 trims (deletes) the portion before the negative time corresponding to the latency of the response IR1 so as to satisfy the latency value L specified by the user, and obtains the second impulse response IR2. .. Trimming is an example of processing in which a part in front of the impulse response is eliminated. Trimming substantially processes the corresponding response FR1. Deforming, changing, or modifying the curve of response FR1 or response IR1 corresponds to machining. The processing may be performed on the response FR1 in the frequency domain.
  • the second processing unit 105 trims the response IR1 so that the latency applied to the curve after trimming satisfies the latency value L. For example, the second processing unit 105 determines the amount (length) of trimming the head of the curve based on the latency value L. For example, the second processing unit 105 trims the response IR1 so that the period from the left end of the curve to the peak has a time length corresponding to the latency value L. The larger the latency value L, the smaller the amount of trimming. Since the energy of the audio signal after passing through the filter is reduced by this trimming, processing may be performed to compensate for the reduction in processing.
  • the third processing unit 106 corrects the response IR2 and sets it in the filter F so that the difference between the amplitude characteristic r3 of the second frequency response FR2 corresponding to the response IR2 and the target amplitude characteristic r1 becomes small.
  • 3 Impulse response IR3 is obtained.
  • the response IR3 corresponds to a third frequency response FR3 that has a predetermined latency and is corrected to approach the target amplitude characteristic r1.
  • the response FR2 (amplitude characteristic r3 and phase characteristic r4) is obtained by Fourier transforming the response IR2 and is equivalent to the response IR2.
  • the third processing unit 106 includes an FFT unit 106A, a division unit 106B, a multiplication unit 106C, a correction control unit 106D, a correction unit 106E, a time shift unit 106F, and a coefficient setting unit 106G.
  • the FFT unit 106A performs a Fourier transform (FFT) on the response IR2 to obtain a response FR2 including an amplitude characteristic r3 and a phase characteristic r4. Trimming by the second processing unit 105 causes a difference between the target amplitude characteristic r1 and the amplitude characteristic r3, as shown in FIG. When this difference is large, the user wants to approach the original target amplitude characteristic r1. Therefore, in the present embodiment, the response FR2 is corrected so that this difference becomes small.
  • FFT Fourier transform
  • trimming by the second processing unit 105 causes a difference between the target phase characteristic r2 and the phase characteristic r4 as shown in FIG.
  • the difference between the target amplitude characteristic r1 and the amplitude characteristic r3 and the difference between the target phase characteristic r2 and the phase characteristic r4 are in a trade-off relationship.
  • the degree of correction of the response FR2 is determined by the priority P.
  • the response FR2 or the response IR2 is corrected according to the priority P as follows.
  • the division unit 106B calculates the amplitude characteristic ⁇ r of the difference between the target amplitude characteristic r1 and the amplitude characteristic r3. This difference is calculated by subtracting the decibel value in the frequency domain. Since the decibel value subtraction corresponds to the linear value division, it is indicated by a division sign in FIG.
  • the multiplication unit 106C multiplies the difference amplitude characteristic ⁇ r, which is the calculation result of the division unit 106B, by the priority P.
  • the correction control unit 106D obtains a frequency response ⁇ FR for correction according to the amplitude characteristic which is the calculation result of the multiplication unit 106C.
  • the amplitude characteristic ⁇ FR for correction is obtained by the minimum phase. For the minimum phase, known techniques can be used.
  • the correction unit 106E corrects the response IR2 according to the frequency response ⁇ FR for correction, and obtains the third impulse response IR3. Modifying, changing, or modifying the curve of response FR2 or response IR2 so that the amplitude characteristic r3 of the third frequency response FR3 corresponding to response IR3 approaches the target amplitude characteristic r1 corresponds to correction.
  • This correction is, for example, a process of obtaining the response IR3 by convolving the impulse response ⁇ IR corresponding to the response ⁇ FR with the response IR2. As shown in FIG.
  • the difference between the target amplitude characteristic r1 and the amplitude characteristic r5 of the response FR3 is smaller than the difference between the target amplitude characteristic r1 and the amplitude characteristic r3 of the response FR2.
  • the response FR3 is obtained by Fourier transforming the response IR3 and is equivalent to the response IR3.
  • the coefficient setting unit 106G sets the values on the curve corresponding to the predetermined sampling interval ⁇ t as the coefficients ⁇ 2 to ⁇ n after the second tap. Setting the coefficients ⁇ 1 to ⁇ n means rewriting the values of the coefficients ⁇ 1 to ⁇ n.
  • the third processing unit 106 changes the degree of correction of the response IR2 based on the priority P.
  • the degree of correction is such that the amplitude characteristic r3 of the response FR3 is brought closer to the target amplitude characteristic r1.
  • the degree of correction can also be referred to as the amount of correction.
  • the relationship between the priority P and the degree of correction is defined in the program code. This relationship may be defined in a mathematical formula or table rather than in the program code.
  • the third processing unit 106 corrects the response IR2 with the degree of correction according to the priority P.
  • FIG. 5 is a diagram showing how the amplitude characteristic r5 of the response FR3 changes according to the priority P.
  • the curve of the target amplitude characteristic r1 is shown by a solid line.
  • the curve of the amplitude characteristic r5 is shown by a line other than the solid line (dotted line, broken line, alternate long and short dash line).
  • the priority P is changed so as to give priority to the amplitude characteristic r5
  • the difference between the amplitude characteristic r5 of the response FR3 and the target amplitude characteristic r1 becomes small.
  • the higher the priority P the smaller the difference between the amplitude characteristic r5 of the response FR3 and the target amplitude characteristic r1.
  • the priority P is 1, the amplitude characteristic r5 and the target amplitude characteristic r1 match.
  • FIG. 6 is a diagram showing how the phase characteristic r6 of the response FR3 changes according to the priority P.
  • the curve of the target phase characteristic r2 is shown by a solid line.
  • the curve of the phase characteristic r6 is shown by a line other than the solid line (dotted line, broken line, alternate long and short dash line).
  • the priority P is changed so as to give priority to the phase characteristic r6, the difference between the phase characteristic r6 of the response FR3 and the target phase characteristic r2 becomes small.
  • the lower the priority P the smaller the difference between the phase characteristic r6 of the response FR3 and the target phase characteristic r2.
  • FIG. 7 is a diagram showing an example of a filter control screen.
  • the filter control screen is a user interface for setting the filter F.
  • the amplitude characteristic image I1, the phase characteristic image I2, the latency value slider SL1, and the priority slider SL2 are displayed on the filter control screen G.
  • the target amplitude characteristic r1 and the amplitude characteristic r5 of the response FR3 are displayed on the amplitude characteristic image I1.
  • the curve of the target amplitude characteristic r1 is shown by a solid line.
  • the curve of the amplitude characteristic r5 is shown by a broken line.
  • the user specifies the target amplitude characteristic r1 by deforming the solid line curve by dragging the mouse or the like. For example, the user deforms the solid curve by moving each of the icons i1 to i4 on the curve.
  • the response FR3 is updated and the curve of the amplitude characteristic r5 is deformed.
  • the user can add new icons or delete existing unwanted icons at any position on the curve.
  • the target phase characteristic r2 and the phase characteristic r6 of the response FR3 are displayed on the phase characteristic image I2.
  • the curve of the target phase characteristic r2 is shown by a solid line.
  • the curve of the amplitude characteristic r5 is shown by a broken line.
  • the user specifies the target phase characteristic r2 by deforming the solid line curve by dragging the mouse or the like. For example, the user deforms the solid curve by moving each of the icons i5 to i8 on the curve.
  • the response FR3 is updated and the curve of the phase characteristic r6 is deformed.
  • the latency value slider SL1 is an image for accepting the designation of the latency value L.
  • the user specifies the latency value L by moving the knob of the slider SL1 by dragging the mouse or the like.
  • the user specifies the latency value L by moving the knob of the slider SL1 to the left or right.
  • the latency value L increases as the knob of the slider SL1 moves to the right (horizontal axis direction).
  • the response FR3 is updated, and the curves of the amplitude characteristic r5 and the phase characteristic r6 are deformed.
  • the priority slider SL2 is an image for designating the priority P.
  • the user specifies the priority P by moving the knob of the slider SL2 by dragging the mouse or the like. For example, the user specifies the priority P by moving the knob of the slider SL2 up and down.
  • the priority P changes so that the amplitude characteristic is prioritized.
  • the priority P changes so that the phase characteristic has priority.
  • the degree of correction changes, the response FR3 is updated, and the curves of the amplitude characteristic r5 and the phase characteristic r6 are deformed.
  • the display control unit 107 causes the display unit 15 to display both the amplitude characteristic r5 and the target amplitude characteristic r1 of the response FR3 and both the phase characteristic r6 and the target phase characteristic r2 in a comparable manner.
  • the display control unit 107 may be able to compare only one of them. That is, either the amplitude characteristic image I1 or the phase characteristic image I2 may be displayed.
  • Displaying in comparison means displaying two characteristics in contrast.
  • the two characteristics may be distinguished in any manner, and are not limited to the solid line and the broken line as shown in FIG. 7.
  • lines of different colors or lines of different thickness may distinguish the two characteristics.
  • the curves may be arranged vertically or horizontally so that they can be compared.
  • FIG. 8 is a flow chart showing an example of processing executed by the control device 10. The process shown in FIG. 8 is executed by the CPU 11 operating according to the program stored in the non-volatile memory 12. This process is an example of the process executed by the functional block shown in FIG.
  • the CPU 11 acquires the initial values of the target amplitude characteristic r1, the target phase characteristic r2, the latency value L, and the priority P (S1). It is assumed that these initial values are stored in advance in the non-volatile memory 12.
  • the value in the previous setting is acquired as the initial value. If the previous setting does not exist in the non-volatile memory 12, the initial value specified by the program creator is acquired.
  • the initial value acquired in S1 is temporarily recorded in the RAM 13.
  • the CPU 11 displays the filter control screen G on the display unit 15 based on the initial value acquired in S1 (S2).
  • the CPU 11 receives a user operation from the operation unit 14 (S3).
  • the user can specify the amplitude to deform the curve of the target amplitude characteristic r1, the phase specification operation to deform the curve of the target phase characteristic r2, the latency value specification operation to move the latency value slider SL1, and the priority to move the priority slider SL2. Perform either a designated operation or a predetermined end operation.
  • the CPU 11 When the amplitude designation operation is accepted (S3; amplitude designation), the CPU 11 changes the target amplitude characteristic r1 recorded in the RAM 13 (S4).
  • the target amplitude characteristic r1 is changed to show the curve after deformation.
  • the solid line curve in the amplitude characteristic image I1 is updated according to the amplitude designation operation.
  • phase designation operation When the phase designation operation is accepted (S3; phase designation), the CPU 11 changes the target phase characteristic r2 recorded in the RAM 13 (S5).
  • the target phase characteristic r2 is changed to show the curve after deformation.
  • the solid line curve in the phase characteristic image I2 is updated according to the phase designation operation.
  • the CPU 11 When the latency value designation operation is accepted (S3; latency value designation), the CPU 11 changes the latency value L recorded in the RAM 13 (S6).
  • the latency value L is a value corresponding to the position of the latency value slider SL1.
  • the CPU 11 obtains the response FR1 according to the target amplitude characteristic r1 and the target phase characteristic r2 (S7).
  • the CPU 11 reverse Fourier transforms the response FR1 including the target amplitude characteristic r1 and the target phase characteristic r2 to obtain the response IR1.
  • the CPU 11 trims the response IR1 so that the latency applied to the response IR1 satisfies the latency value L, and obtains the response IR2 (S8).
  • the CPU 11 trims the head portion of the response IR1 according to the latency value L.
  • the CPU 11 Fourier transforms the response IR2 to obtain the response FR2.
  • the CPU 11 Based on the priority P, the CPU 11 corrects the response IR2 so that the difference between the amplitude characteristic r3 of the response FR2 and the target amplitude characteristic r1 becomes small, and obtains the response IR3 (S9).
  • the CPU 11 first obtains the amplitude characteristic for correction by multiplying the difference between the target amplitude characteristic r1 and the amplitude characteristic r3 of the response FR2 by the priority P, and obtains the correction amplitude characteristic under the condition of the minimum phase. And the response ⁇ IR is folded into the response IR2 to obtain the response IR3.
  • the CPU 11 time-shifts the response IR3 and sets the coefficients ⁇ 1 to ⁇ n of the filter F (S10). Each of the coefficients ⁇ 1 to ⁇ n becomes a value on the curve of the time-shifted response IR3.
  • the CPU 11 updates the display of the filter control screen G (S11).
  • the CPU 11 Fourier transforms the response IR3 to obtain the response FR3 including the amplitude characteristic r5 and the phase characteristic r6.
  • the dashed curve in the amplitude characteristic image I1 is updated to show the amplitude characteristic r5.
  • the dashed curve in the phase characteristic image I2 is updated to show the phase characteristic r6.
  • the CPU 11 When the priority designation operation is accepted in S3 (S3; priority designation), the CPU 11 changes the priority P recorded in the RAM 13 (S12). After that, the processes of S9 to S11 are executed. The priority P does not affect the curve of the response IR1 and the curve of the response IR2. Therefore, after the processing of S12, the processing of S7 and S8 is not executed. By omitting the processing of S7 and S8, the response IR3 can be obtained quickly. Since unnecessary processing is not executed, the processing load of the control device 10 can be reduced.
  • the control device 10 of the present embodiment trims the response IR1 so as to satisfy the latency value L to obtain the response IR2.
  • the control device 10 corrects the response IR2 so that the difference between the amplitude characteristic r3 of the response FR2 and the target amplitude characteristic r1 becomes small, and obtains the response IR3.
  • the difference between the amplitude characteristic r5 set in the filter F and the target amplitude characteristic r1 can be reduced.
  • the sound processed by the filter F of the response IR3 corrected by the speaker 20 is output.
  • control device 10 sets the target amplitude characteristic r1 and the target phase characteristic r2 according to the user operation.
  • the user can freely specify each of the target amplitude characteristic r1 and the target phase characteristic r2.
  • the degree of freedom of the user when setting the filter F is improved.
  • the filter F can be set according to the environment in which the speaker 20 is installed.
  • control device 10 changes the degree of correction of the response IR2 based on the priority P.
  • a response IR3 that reflects the target amplitude characteristic r1 and the target phase characteristic r2 in an arbitrary balance can be obtained.
  • control device 10 sets the priority P according to the user operation.
  • the user can freely specify the priority P.
  • the degree of freedom of the user when setting the filter F is improved, and the setting work of the filter F can be supported.
  • the amplitude characteristic r5 and the phase characteristic r6 can be set according to the environment in which the speaker 20 is installed.
  • the priority P when the priority P is changed so as to give priority to the amplitude characteristic, the difference between the amplitude characteristic r5 of the response FR3 and the target amplitude characteristic r1 becomes small.
  • the priority P is changed so as to give priority to the phase characteristic, the difference between the phase characteristic r6 of the response FR3 and the target phase characteristic r2 becomes small.
  • the user can intuitively understand the change in the response FR3 according to the priority P.
  • the user can set the response FR3 in which the target amplitude characteristic r1 and the target phase characteristic r2 are reflected in a desired balance in the filter F.
  • control device 10 sets the latency value L by user operation.
  • the user may arbitrarily specify the latency value L.
  • the degree of freedom of the user when setting the filter F is improved.
  • the latency value L can be set according to the purpose of use of the speaker 20. For example, for SR applications, a short latency value (about several tens of milliseconds) is preferable. For music production, you can set a longer latency value without any problem.
  • control device 10 displays the amplitude characteristic r5 of the response FR3 and the target amplitude characteristic r1 in a comparable manner. Further, the control device 10 displays the phase characteristic r6 of the response FR3 and the target phase characteristic r2 in a comparable manner. This makes it easier for the user to understand the difference between the target characteristic and the current characteristic, and can support the user in setting the filter F.
  • the priority P may be set independently for each frequency of the voice signal.
  • the priority P is stored for each frequency band.
  • the frequency band and the priority P have a one-to-one relationship.
  • three frequency bands of high, medium, and low are prepared.
  • the frequency band may be any number. For example, two or more frequency bands may be provided.
  • the priority P of each frequency band may be different from each other or may be the same.
  • the priority P of each frequency band is set independently of each other according to the user operation. The user may be able to specify only the priority P of some frequency bands.
  • the third processing unit 106 corrects the response IR2 according to the plurality of priorities P of the plurality of frequency bands to obtain the response IR3.
  • the degree of correction may be crossfaded at the boundary portion between the two frequency bands.
  • the third processing unit 106 corrects the degree of correction response IR2 according to the priority P for each frequency band.
  • the multiplier 106C multiplies the calculation result of the divider 106B by the degree of correction based on the plurality of priorities P of the plurality of frequency bands.
  • the processing after the correction control unit 106D is as described in the embodiment.
  • the priority P is set independently for each frequency.
  • the response IR3 corrected with a different degree of correction for each frequency is obtained.
  • the control device 10 deforms at least one of the target amplitude characteristic r1 and the target phase characteristic r2 according to the latency value L, and then obtains the response IR1 according to the deformed target amplitude characteristic r1 and the target phase characteristic r2. May be good.
  • both the target amplitude characteristic r1 and the target phase characteristic r2 are set according to the user operation.
  • At least one of the target amplitude characteristic r1 and the target phase characteristic r2 may be set according to the user operation. For example, only one of these may be set according to the user operation. Further, for example, both of these may be fixed values without being set according to the user operation.
  • the control device 10 may correct the response IR2 without using the priority P in particular.
  • the amplitude characteristic r5 of the response FR3 and the target amplitude characteristic r1 do not have to be displayed in a comparable manner.
  • the phase characteristic r6 of the response FR3 and the target phase characteristic r2 do not have to be displayed in a comparable manner.
  • the filter control screen G does not have to be displayed in particular.
  • the control system is not limited to one control device 10.
  • the control system may include a plurality of devices connected by a network or a serial bus.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Abstract

音声信号を処理するフィルタ(F)の周波数レスポンスを制御する方法では、周波数レスポンスは、振幅特性と位相特性とで規定されている。目標振幅特性と、目標位相特性と、レイテンシ値と、を取得する(S4~S6)。目標振幅特性及び目標位相特性に応じて第1周波数レスポンスを得る(S7)。第1周波数レスポンスにかかるレイテンシがレイテンシ値を満たすように、第1周波数レスポンスを加工して、第2周波数レスポンスを得る(S8)。第2周波数レスポンスの振幅特性と、目標振幅特性と、の差が小さくなるように、第2周波数レスポンスを補正して、フィルタ(F)に設定する第3周波数レスポンスを得る(S9)。

Description

制御方法、制御システム、及び記憶媒体
 本発明は、制御方法、制御システム、及び記憶媒体に関する。
 音声信号が入力されるフィルタの周波数レスポンスを制御する技術が知られている。特許文献1には、目標振幅特性と目標位相特性とが独立に設定されたフィルタが記載されている。このフィルタは、設定された目標振幅特性と目標位相特性とに応じてレイテンシが変化する。
特許2681349号公報
 しかしながら、特許文献1の技術では、レイテンシが所定値の場合が考慮されていない。特許文献1のフィルタは有限長なので、目標振幅特性と目標位相特性との間で何らかの妥協をしなければ、これらで規定される周波数レスポンスがフィルタに収まらない。フィルタに周波数レスポンスを収めようとすると、周波数レスポンスの振幅特性と目標振幅特性との間には大きな差が生じる。
 本発明は上記課題を鑑みてなされたものであって、その目的は、周波数レスポンスの振幅特性と目標振幅特性との差を小さくすることである。
 上記課題を解決するために、本発明に係る制御方法は、音声信号を処理するフィルタの周波数レスポンスを制御する方法であって、前記周波数レスポンスは、振幅特性と位相特性とで規定されており、目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る。
 本発明に係る制御システムは、音声信号を処理するフィルタの周波数レスポンスを制御し、1以上のプロセッサと1以上のメモリとを具備する制御システムであって、前記周波数レスポンスは、振幅特性と位相特性とで規定されており、前記1以上のメモリに記憶されたプログラムを実行することにより、前記1以上のプロセッサが、目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る。
 本発明に係る記憶媒体は、音声信号を処理するフィルタの周波数レスポンスを制御するコンピュータが読み出せるプログラムを記憶する1以上の記憶媒体であって、前記周波数レスポンスは、振幅特性と位相特性とで規定されており、前記プログラムは1以上のプロセッサに、目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る、動作を行わせる。
 本発明によれば、周波数レスポンスの振幅特性と目標振幅特性との差を小さくすることができる。
実施形態に係る制御装置の一例を示す図である。 SPUのフィルタの一例を示す図である。 制御装置で実現される機能の一例を示すブロック図である。 制御装置により制御される周波数レスポンスの一例を示す図である。 第3周波数レスポンスの振幅特性が優先度に応じて変化する様子を示す図である。 第3周波数レスポンスの位相特性が優先度に応じて変化する様子を示す図である。 フィルタ制御画面の一例を示す図である。 制御装置が実行する処理の一例を示すフロー図である。
[1.制御装置のハードウェア構成]
 以下、本発明に係る実施形態の一例を図面に基づいて説明する。図1は、実施形態に係る制御装置の一例を示す図である。制御装置10は、音声信号を処理するフィルタの周波数レスポンスを制御する。例えば、制御装置10は、デジタルミキサ、信号処理プロセッサ、オーディオアンプ、電子楽器、パーソナルコンピュータ、タブレット端末、スマートフォン、又はデジタルアシスタントである。
 音声信号は、音を示すデジタル又はアナログの信号である。フィルタは、入力された音声信号を処理して出力する回路である。本実施形態のフィルタは、有限長のFIR(Finite Impulse Response)フィルタである。周波数レスポンスは、時間軸におけるフィルタ特性である。周波数レスポンスは、振幅特性と位相特性とで規定されている。周波数レスポンスは、フィルタの係数を設定するために用いられる。周波数レスポンスを制御するとは、周波数レスポンスを得ることである。
 なお、本実施形態では、「得る」は、処理の結果として得ることを意味する。例えば、周波数レスポンスは、逆フーリエ変換等の処理の結果として得られるので、制御装置10は、周波数レスポンスを「得る」。「得る」は、作成する、定義する、又は生成すると言い換えることもできる。一方、「取得する」は、受け取ることを意味する。例えば、ユーザ操作により指定された情報は、外部から受け取るものなので、制御装置10は、当該指定された情報を取得する。「取得する」は、受信すると言い換えることもできる。本実施形態では、このようにして「得る」と「取得する」を使い分ける。
 図1に示すように、制御装置10は、CPU11、不揮発メモリ12、RAM13、操作部14、表示部15、入力部16、SPU(Signal Processing Unit)17、及びDAC(Digital Analog Converter)18を含む。制御装置10は、パワードスピーカ20に接続される。なお、スピーカ20は、制御装置10と一体であってもよい。
 CPU11は、少なくとも1つのプロセッサを含む。CPU11は、不揮発メモリ12に記憶されたプログラム及びデータに基づいて、所定の処理を実行する。不揮発メモリ12は、ROM、EEPROM、フラッシュメモリ、又はハードディスク等のメモリである。RAM13は、揮発性メモリの一例である。操作部14は、タッチパネル、キーボード、マウス、ボタン、又はレバー等の入力デバイスである。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等のディスプレイである。
 入力部16は、音声信号を取得する。本実施形態では、入力部16は、デジタル音声信号を取得する。入力部16は、アナログ音声信号を取得してもよい。この場合、入力部16は、A/D変換器を利用して、アナログ音声信号をデジタル音声信号に変換する。例えば、入力部16は、外部からの音声信号の入力を受け付けるインタフェースを含む。入力部16は、不揮発メモリ12に記憶された音声データを取得してもよい。入力部16は、取得した音声信号をSPU17に入力する。SPU17は、入力された音声信号を処理するフィルタを含む。
 図2は、SPU17のフィルタの一例を示す図である。図2に示すように、フィルタFは、遅延回路Z1~Zn-1と、乗算器M1~Mnと、を含む。nは、フィルタFのタップ数である。nは、任意の自然数であってよい。乗算器M1~Mnの各々には、係数α1~αnが設定される。係数α1~αnは、後述する第3周波数レスポンスに応じた値となる。フィルタFは、音声信号に係数α1~αnを畳み込むFIRフィルタである。
 入力部16から入力された音声信号は、乗算器M1と遅延回路Z1に入力される。遅延回路Z1に入力された音声信号は、所定時間だけ遅延されて乗算器M2と遅延回路Z2に入力される。以降同様にして、音声信号が遅延回路Z3~Zn-1の各々により遅延される。遅延された音声信号は、乗算器M3~Mnの各々に入力される。
 乗算器M1~Mnの各々は、自身に入力された音声信号に係数α1~αnを乗じる。乗算器M1~Mnの各々は、自身の係数α1~αnを乗じた音声信号を加算器Aに入力する。加算器Aは、乗算器M1~Mnの各々から出力された音声信号を加算する。加算器Aは、加算された音声信号をDAC18に入力する。
 DAC18は、デジタル音声信号をアナログ音声信号に変換する回路である。DAC18は、パワードスピーカ20に対し、変換されたアナログ音声信号を出力する。スピーカ20は、入力されたアナログ音声信号に応じた音を出力する。
 なお、制御装置10のハードウェア構成は、上記の例に限られない。例えば、制御装置10は、有線通信又は無線通信用の通信インタフェースを含んでもよい。また例えば、制御装置10は、コンピュータ読み取り可能な情報記憶媒体を読み取る読取装置(例えば、光ディスクドライブ又はメモリカードスロット)を含んでもよい。また例えば、制御装置10は、データの入出力をするための入出力端子(例えば、USBポート)を含んでもよい。本実施形態で不揮発メモリ12に記憶されるものとして説明するプログラム及びデータは、通信インタフェース、読取装置、又は入出力端子を介して制御装置10に供給されてもよい。
[2.制御装置で実現される機能]
 図3は、制御装置10で実現される機能の一例を示すブロック図である。図4は、制御装置10により制御される周波数レスポンスの一例を示す図である。図3に示すように、制御装置10では、第1取得部100(目標振幅特性取得部)、第2取得部101(目標位相特性取得部)、第3取得部102(レイテンシ値取得部)、第4取得部103(優先度取得部)、第1処理部104(第1周波数レスポンス処理部)、第2処理部105(第2周波数レスポンス処理部)、第3処理部106(第3周波数レスポンス処理部)、及び表示制御部107が実現される。これらの機能は、CPU11を主として実現される。
[2-1.第1取得部(目標振幅特性取得部)]
 第1取得部100は、目標振幅特性r1を取得する。目標振幅特性r1は、目標となる振幅特性(理想的な振幅特性)である。振幅特性は、周波数軸における振幅の特性である。図4に示すように、目標振幅特性r1の横軸は、周波数を示す。目標振幅特性r1の縦軸は、振幅の変化(ゲイン)を示す。目標振幅特性r1のカーブは、周波数毎の振幅の大きさを示す。
 本実施形態では、目標振幅特性r1は、ユーザ操作に応じて設定される。例えば、ユーザは、後述するフィルタ制御画面で目標振幅特性r1を指定する。第1取得部100は、ユーザ操作により指定された目標振幅特性r1を取得し、RAM13に記録する。ユーザ操作は、フィルタ制御画面上の操作に限られず、操作部14を利用した他の操作であってもよい。例えば、画面を利用したユーザ操作ではなく、操作部14のボタン又はレバー等から直接的に目標振幅特性r1が指定されてもよい。
 なお、目標振幅特性r1は、ユーザが指定しなくてもよい。この場合、目標振幅特性r1は、予め定められたカーブを示す。例えば、この目標振幅特性r1は、不揮発メモリ12に予め記憶される。第1取得部100は、不揮発メモリ12に予め記憶された目標振幅特性r1を取得する。不揮発メモリ12には、複数の目標振幅特性r1が予め記憶されていてもよい。この場合、第1取得部100は、複数の目標振幅特性r1の何れかを取得する。例えば、第1取得部100は、ユーザにより選択された目標振幅特性r1を取得する。なお、スピーカ20からテスト音を放音して測定された部屋の周波数振幅特性に基づいて、目標振幅特性r1を自動設定してもよい。例えば、その周波数振幅特性のピークを抑えるような目標振幅特性r1を自動設定してもよい。
[2-2.第2取得部(目標位相特性取得部)]
 第2取得部101は、目標位相特性r2を取得する。目標位相特性r2は、目標となる位相特性(理想的な位相特性)である。位相特性は、周波数軸における位相の特性である。図4に示すように、目標位相特性r2の横軸は、周波数を示す。目標位相特性r2の縦軸は、位相の変化(進み又は遅れの程度)を示す。目標位相特性r2のカーブは、周波数毎の位相の変化を示す。
 本実施形態では、目標位相特性r2は、ユーザ操作に応じて設定される。例えば、ユーザは、後述するフィルタ制御画面で目標位相特性r2を指定する。第2取得部101は、ユーザ操作により指定された目標位相特性r2を取得し、RAM13に記録する。ユーザ操作は、フィルタ制御画面上の操作に限られず、操作部14を利用した他の操作であってもよい。例えば、画面を利用したユーザ操作ではなく、操作部14のボタン又はレバー等から直接的に目標位相特性r2が指定されてもよい。
 なお、目標位相特性r2は、ユーザが指定しなくてもよい。この場合、目標位相特性r2は、予め定められたカーブを示す。例えば、この目標位相特性は、不揮発メモリ12に予め記憶される。第2取得部101は、不揮発メモリ12に予め記憶された目標位相特性r2を取得する。不揮発メモリ12には、複数の目標位相特性r2が予め記憶されていてもよい。この場合、第2取得部101は、複数の目標位相特性r2の何れかを取得する。例えば、第2取得部101は、ユーザにより選択された目標位相特性r2を取得する。なお、スピーカ20からテスト音を放音して測定された部屋の周波数位相特性に基づいて、目標位相特性r2を自動設定してもよい。例えば、その周波数位相特性を滑らかにするような目標位相特性r2を自動設定してもよい。
[2-3.第3取得部(レイテンシ値取得部)]
 第3取得部102は、レイテンシ値Lを取得する。レイテンシ値Lは、フィルタのレイテンシ(時間長)を示す数値である。レイテンシは、フィルタを通過した音声信号のフィルタに入力する音声信号からの遅延である。レイテンシ値Lが大きいほど、フィルタで音が遅延する。レイテンシ値Lは、予め定められた数値範囲内の数値で示される。例えば、レイテンシ値Lは、0ミリ秒以上Tミリ秒以下の数値で示される。Tは、レイテンシ値Lの上限値を示す正の数である。
 本実施形態では、レイテンシ値Lは、ユーザ操作に応じて設定される。例えば、ユーザは、後述するフィルタ画面でレイテンシ値Lを指定する。第3取得部102は、ユーザ操作により指定されたレイテンシ値Lを取得し、RAM13に記録する。ユーザ操作は、フィルタ制御画面上の操作に限られず、操作部14を利用した他の操作であってもよい。例えば、画面を利用したユーザ操作ではなく、操作部14のボタン又はレバー等から直接的にレイテンシ値Lが指定されてもよい。
 なお、レイテンシ値Lは、ユーザが指定しなくてもよい。この場合、レイテンシ値Lは、予め定められた値となる。例えば、このレイテンシ値Lは、不揮発メモリ12に予め記憶される。第3取得部102は、不揮発メモリ12に予め記憶されたレイテンシ値Lを取得する。不揮発メモリ12には、複数のレイテンシ値Lが予め記憶されていてもよい。この場合、第3取得部102は、複数のレイテンシ値Lの何れかを取得する。例えば、第3取得部102は、ユーザにより選択されたレイテンシ値Lを取得する。
[2-4.第4取得部(優先度取得部)]
 第4取得部103は、優先度Pを取得する。優先度Pは、周波数レスポンスの補正の程度を示す数値である。例えば、優先度Pは、振幅特性の補正の比率を示す。この場合、優先度Pが高いほど、振幅特性が優先されるように、周波数レスポンスが補正される。優先度Pは、予め定められた数値範囲内の数値で示される。例えば、優先度Pは、0以上1以下の数値で示される。
 本実施形態では、優先度Pは、ユーザ操作に応じて設定される。例えば、ユーザは、後述するフィルタ画面で優先度Pを指定する。第4取得部103は、ユーザ操作により指定された優先度Pを取得し、RAM13に記録する。ユーザ操作は、フィルタ制御画面上の操作に限られず、操作部14を利用した他の操作であってもよい。例えば、画面を利用したユーザ操作ではなく、操作部14のボタン又はレバー等から直接的に優先度Pが指定されてもよい。
 なお、優先度Pは、ユーザが指定しなくてもよい。この場合、優先度Pは、予め定められた値となる。例えば、この優先度Pは、不揮発メモリ12に予め記憶される。第4取得部103は、不揮発メモリ12に予め記憶された優先度Pを取得する。不揮発メモリ12には、複数の優先度Pが予め記憶されていてもよい。この場合、第4取得部103は、複数の優先度Pの何れかを取得する。例えば、第4取得部103は、ユーザにより選択された優先度Pを取得する。或いは、所定のルールに基づいて自動決定されてもよい。例えば、フィルタの振幅特性と目標振幅特性のユークリッド距離に基づいて、優先度Pの値を自動決定してもよい。
[2-5.第1処理部(第1周波数レスポンス処理部)]
 第1処理部104は、目標振幅特性r1及び目標位相特性r2からなる第1周波数レスポンスFR1に応じて第1インパルスレスポンスIR1を得る。周波数領域におけるレスポンスFR1は、時間領域におけるレスポンスIRと等価である。
 図4に示すように、第1処理部104は、レスポンスFR1を逆フーリエ変換(iFFT)し、レスポンスIR1を得る。レスポンスFR1は、逆フーリエ変換により、周波数領域から時間領域に変換される。このため、レスポンスIR1の横軸は、時間を示す。レスポンスIR1の縦軸は、フィルタFの係数の大きさ(図4ではパワー)を示す。レスポンスIR1のカーブは、時間毎(タップ毎)の係数の大きさを示す。また、レスポンスIR1は、中央(時間ゼロ)付近にピークを有する。なお、レスポンスFR1の周波数分解能がフィルタFのタップ数に対応する分解能以下であれば、得られるレスポンスIR1はレスポンスFR1に正確に対応する。その分解能より高ければ、得られるレスポンスIR1は誤差を含む。
[2-6.第2処理部(第2周波数レスポンス処理部)]
 第2処理部105は、レスポンスIR1にかかるレイテンシがレイテンシ値Lを満たすように、レスポンスIR1を加工して、第2インパルスレスポンスIR2を得る。レスポンスIR2は、所定のレイテンシを有し、かつレスポンスFR1に近い第2周波数レスポンスFR2に対応する。
 例えば、第2処理部105は、ユーザにより指定されたレイテンシ値Lを満たすように、レスポンスIR1のレイテンシに対応する負の時間より前の部分をトリミング(削除)し、第2インパルスレスポンスIR2を得る。トリミングは、インパルスレスポンスの前方の一部が無くする加工の一例である。トリミングにより、実質的に、対応するレスポンスFR1が加工される。レスポンスFR1又はレスポンスIR1のカーブを変形、変更、又は修正することは、加工に相当する。加工は、周波数領域のレスポンスFR1に対して行ってもよい。
 第2処理部105は、トリミング後のカーブにかかるレイテンシがレイテンシ値Lを満たすように、レスポンスIR1をトリミングする。例えば、第2処理部105は、レイテンシ値Lに基づいて、カーブの先頭をトリミングする量(長さ)を決定する。例えば、第2処理部105は、カーブの左端からピークまでがレイテンシ値Lに応じた時間長となるように、レスポンスIR1をトリミングする。レイテンシ値Lが大きくなるほど、トリミングする量が減る。なお、フィルタ通過後の音声信号のエネルギーはこのトリミングにより減少するので、加工においては、その減少を補償するような処理を行ってもよい。
[2-7.第3処理部(第3周波数レスポンス処理部)]
 第3処理部106は、レスポンスIR2に対応する第2周波数レスポンスFR2の振幅特性r3と、目標振幅特性r1と、の差が小さくなるように、レスポンスIR2を補正して、フィルタFに設定する第3インパルスレスポンスIR3を得る。レスポンスIR3は、所定のレイテンシを有し、かつ、目標振幅特性r1近づくように補正された第3周波数レスポンスFR3に対応する。なお、レスポンスFR2(振幅特性r3と位相特性r4)は、レスポンスIR2をフーリエ変換して得られ、レスポンスIR2と等価である。
 例えば、第3処理部106は、FFT部106A、除算部106B、乗算部106C、補正制御部106D、補正部106E、時間シフト部106F、及び係数設定部106Gを含む。FFT部106Aは、レスポンスIR2をフーリエ変換(FFT)し、振幅特性r3と位相特性r4とからなるレスポンスFR2を得る。第2処理部105によるトリミングにより、図4に示すように、目標振幅特性r1と振幅特性r3との間には差が生じる。この差が大きいと、ユーザは、元の目標振幅特性r1に近づけることを要望する。そこで、本実施形態では、この差が小さくなるように、レスポンスFR2が補正される。
 この点、第2処理部105によるトリミングにより、図4に示すように、目標位相特性r2と位相特性r4との間にも差が生じる。ここで、目標振幅特性r1及び振幅特性r3の差と、目標位相特性r2及び位相特性r4の差と、はトレードオフの関係にある。一方の差が小さくなると、他方の差が大きくなる。レスポンスFR2の補正の程度は、優先度Pにより定まる。本実施形態では、下記のようにして、優先度Pに応じてレスポンスFR2ないしレスポンスIR2が補正される。
 除算部106Bは、目標振幅特性r1と振幅特性r3との差の振幅特性Δrを計算する。この差は、周波数領域における、デシベル値の引き算によって計算される。デシベル値の引き算は、リニア値の割り算に相当するので、図3では除算記号で示す。乗算部106Cは、除算部106Bの計算結果である差の振幅特性Δrに優先度Pを掛ける。補正制御部106Dは、乗算部106Cの計算結果である振幅特性に応じた、補正用の周波数レスポンスΔFRを得る。補正用の振幅特性ΔFRは、最小位相により得られる。最小位相については、公知の手法を利用可能である。
 補正部106Eは、補正用の周波数レスポンスΔFRに応じてレスポンスIR2を補正し、第3インパルスレスポンスIR3を得る。レスポンスIR3に対応する第3周波数レスポンスFR3の振幅特性r3が目標振幅特性r1に近づくように、レスポンスFR2又はレスポンスIR2のカーブを変形、変更、又は修正することは、補正に相当する。この補正は、例えば、レスポンスIR2に対してレスポンスΔFRに対応するインパルスレスポンスΔIRを畳み込むことで、レスポンスIR3を得る処理である。図4に示すように、目標振幅特性r1とレスポンスFR3の振幅特性r5との差は、目標振幅特性r1とレスポンスFR2の振幅特性r3との差よりも小さい。なお、レスポンスFR3は、レスポンスIR3をフーリエ変換して得られ、レスポンスIR3と等価である。
 時間シフト部106Fは、レスポンスIR3を時間シフトする。時間シフトにより、レスポンスIR3が示すカーブの先頭(最も左)がt=0になる。係数設定部106Gは、カーブにおけるt=0の値を、1タップ目の係数α1として設定する。係数設定部106Gは、所定のサンプリング間隔Δtに応じたカーブ上の値を、2タップ目以降の係数α2~αnとして設定する。なお、係数α1~αnを設定するとは、係数α1~αnの値を書き換えることである。
 上記のように、第3処理部106は、優先度Pに基づいて、レスポンスIR2の補正の程度を変更する。補正の程度とは、レスポンスFR3の振幅特性r3を目標振幅特性r1に近づける程度である。補正の程度は、補正量ということもできる。例えば、優先度Pと補正の程度との関係は、プログラムコードに定義される。この関係は、プログラムコードではなく、数式又はテーブルに定義されてもよい。第3処理部106は、優先度Pに応じた補正の程度でレスポンスIR2を補正する。
 図5は、レスポンスFR3の振幅特性r5が優先度Pに応じて変化する様子を示す図である。図5では、目標振幅特性r1のカーブを、実線で示す。振幅特性r5のカーブを、実線以外の線(点線、破線、一点鎖線)で示す。図5に示すように、振幅特性r5を優先するように優先度Pが変化した場合には、レスポンスFR3の振幅特性r5と目標振幅特性r1との差が小さくなる。例えば、優先度Pが高いほど、レスポンスFR3の振幅特性r5と目標振幅特性r1との差が小さくなる。図5の例では、優先度Pが1のときに、振幅特性r5と目標振幅特性r1とが一致する。
 図6は、レスポンスFR3の位相特性r6が優先度Pに応じて変化する様子を示す図である。図6では、目標位相特性r2のカーブを、実線で示す。位相特性r6のカーブを、実線以外の線(点線、破線、一点鎖線)で示す。図6に示すように、位相特性r6を優先するように優先度Pが変化した場合には、レスポンスFR3の位相特性r6と目標位相特性r2との差が小さくなる。例えば、優先度Pが低いほど、レスポンスFR3の位相特性r6と目標位相特性r2との差が小さくなる。
[2-8.表示制御部]
 表示制御部107は、フィルタ制御画面を表示部15に表示させる。図7は、フィルタ制御画面の一例を示す図である。フィルタ制御画面は、フィルタFの設定作業をするためのユーザインタフェースである。図7に示すように、フィルタ制御画面Gには、振幅特性画像I1、位相特性画像I2、レイテンシ値スライダSL1、及び優先度スライダSL2が表示される。
 振幅特性画像I1には、目標振幅特性r1と、レスポンスFR3の振幅特性r5と、が表示される。図3の例では、目標振幅特性r1のカーブは、実線で示される。振幅特性r5のカーブは、破線で示される。ユーザは、マウスのドラッグ操作等により、実線のカーブを変形させることにより、目標振幅特性r1を指定する。例えば、ユーザは、カーブ上のアイコンi1~i4の各々を移動させることにより、実線のカーブを変形させる。目標振幅特性r1のカーブが変形すると、レスポンスFR3が更新され、振幅特性r5のカーブが変形する。ユーザは、カーブ上の任意の位置に新たなアイコンを追加したり、既存の不要なアイコンを削除したりできる。
 位相特性画像I2には、目標位相特性r2と、レスポンスFR3の位相特性r6と、が表示される。図3の例では、目標位相特性r2のカーブは、実線で示される。振幅特性r5のカーブは、破線で示される。ユーザは、マウスのドラッグ操作等により、実線のカーブを変形させることにより、目標位相特性r2を指定する。例えば、ユーザは、カーブ上のアイコンi5~i8の各々を移動させることにより、実線のカーブを変形させる。目標位相特性r2のカーブが変形すると、レスポンスFR3が更新され、位相特性r6のカーブが変形する。
 レイテンシ値スライダSL1は、レイテンシ値Lの指定を受け付けるための画像である。ユーザは、マウスのドラッグ操作等により、スライダSL1のつまみを移動させることにより、レイテンシ値Lを指定する。例えば、ユーザは、スライダSL1のつまみを左右に移動させることにより、レイテンシ値Lを指定する。図3の例では、スライダSL1のつまみが右方向(横軸方向)に移動するほど、レイテンシ値Lが大きくなる。レイテンシ値Lが変わると、トリミングの程度が変わりレスポンスFR3が更新され、振幅特性r5と位相特性r6の各々のカーブが変形する。
 優先度スライダSL2は、優先度Pを指定するための画像である。ユーザは、マウスのドラッグ操作等により、スライダSL2のつまみを移動させることにより、優先度Pを指定する。例えば、ユーザは、スライダSL2のつまみを上下に移動させることにより、優先度Pを指定する。図3の例では、スライダSL2のつまみが上方向(振幅特性画像I1の方向)に移動するほど、振幅特性が優先されるように、優先度Pが変わる。スライダSL2のつまみが下方向(位相特性画像I2の方向)に移動するほど、位相特性が優先されるように、優先度Pが変わる。優先度Pが変わると、補正の程度が変わりレスポンスFR3が更新され、振幅特性r5と位相特性r6の各々のカーブが変形する。
 上記のように、表示制御部107は、表示部15に、レスポンスFR3の振幅特性r5と目標振幅特性r1、及び、位相特性r6と目標位相特性r2の両方を比較可能に表示させる。なお、表示制御部107は、何れか一方のみを比較可能としてもよい。つまり、振幅特性画像I1又は位相特性画像I2の何れか一方が表示されてもよい。
 比較可能に表示させるとは、2つの特性を対比して表示させることである。2つの特性は、任意の態様で区別されるようにすればよく、図7のような実線と破線に限られない。例えば、互いに異なる色の線、又は、互いに異なる太さの線によって、2つの特性が区別されてもよい。また例えば、同じ領域内に2つのカーブを重ねて比較可能にするのではなく、上下又は左右にカーブを並べて比較可能としてもよい。
[3.制御装置が実行する処理]
 図8は、制御装置10が実行する処理の一例を示すフロー図である。図8に示す処理は、CPU11が不揮発メモリ12に記憶されたプログラムに従って動作することによって実行される。この処理は、図8に示す機能ブロックにより実行される処理の一例である。
 図8に示すように、CPU11は、目標振幅特性r1、目標位相特性r2、レイテンシ値L、及び優先度Pの各々の初期値を取得する(S1)。これらの初期値は、不揮発メモリ12に予め記憶されているものとする。前回の設定が不揮発メモリ12に存在する場合、前回の設定における値が初期値として取得される。前回の設定が不揮発メモリ12に存在しない場合、プログラムの作成者によって指定された初期値が取得される。S1において取得された初期値は、RAM13に一時的に記録される。
 CPU11は、S1で取得した初期値に基づいて、フィルタ制御画面Gを表示部15に表示させる(S2)。CPU11は、操作部14からユーザ操作を受け付ける(S3)。ユーザは、目標振幅特性r1のカーブを変形させる振幅指定操作、目標位相特性r2のカーブを変形させる位相指定操作、レイテンシ値スライダSL1を移動させるレイテンシ値指定操作、優先度スライダSL2を移動させる優先度指定操作、又は所定の終了操作の何れかをする。
 振幅指定操作が受け付けられた場合(S3;振幅指定)、CPU11は、RAM13に記録された目標振幅特性r1を変更する(S4)。目標振幅特性r1は、変形後のカーブを示すように変更される。振幅特性画像I1における実線のカーブは、振幅指定操作に応じて更新される。
 位相指定操作が受け付けられた場合(S3;位相指定)、CPU11は、RAM13に記録された目標位相特性r2を変更する(S5)。目標位相特性r2は、変形後のカーブを示すように変更される。位相特性画像I2における実線のカーブは、位相指定操作に応じて更新される。
 レイテンシ値指定操作が受け付けられた場合(S3;レイテンシ値指定)、CPU11は、RAM13に記録されたレイテンシ値Lを変更する(S6)。レイテンシ値Lは、レイテンシ値スライダSL1の位置に応じた値となる。
 CPU11は、目標振幅特性r1と目標位相特性r2に応じてレスポンスFR1を得る(S7)。S7においては、CPU11は、目標振幅特性r1と目標位相特性r2からなるレスポンスFR1を逆フーリエ変換し、レスポンスIR1を得る。
 CPU11は、レスポンスIR1にかかるレイテンシがレイテンシ値Lを満たすように、レスポンスIR1をトリミングして、レスポンスIR2を得る(S8)。S8においては、CPU11は、レイテンシ値Lに応じてレスポンスIR1の先頭部をトリミングする。CPU11は、レスポンスIR2をフーリエ変換し、レスポンスFR2を得る。
 CPU11は、優先度Pに基づいて、レスポンスFR2の振幅特性r3と目標振幅特性r1との差が小さくなるように、レスポンスIR2を補正して、レスポンスIR3を得る(S9)。S9においては、CPU11は、まず、目標振幅特性r1とレスポンスFR2の振幅特性r3との差に優先度Pを乗じた補正用の振幅特性を求め、それを最小位相の条件で補正用のレスポンスΔIRに変換し、そのレスポンスΔIRをレスポンスIR2に畳み込んでレスポンスIR3を得る。
 CPU11は、レスポンスIR3を時間シフトし、フィルタFの係数α1~αnを設定する(S10)。係数α1~αnの各々は、時間シフトされたレスポンスIR3のカーブ上の値となる。
 CPU11は、フィルタ制御画面Gの表示を更新する(S11)。S11においては、CPU11は、レスポンスIR3をフーリエ変換し、振幅特性r5と位相特性r6からなるレスポンスFR3を得る。振幅特性画像I1における破線のカーブは、振幅特性r5を示すように更新される。位相特性画像I2における破線のカーブは、位相特性r6を示すように更新される。
 S3において、優先度指定操作が受け付けられた場合(S3;優先度指定)、CPU11は、RAM13に記録された優先度Pを変更する(S12)。その後、S9~S11の処理が実行される。優先度Pは、レスポンスIR1のカーブと、レスポンスIR2のカーブと、には影響を与えない。このため、S12の処理の後は、S7及びS8の処理が実行されない。S7及びS8の処理を省略することにより、レスポンスIR3を迅速に得ることができる。不要な処理が実行されないので、制御装置10の処理負荷を軽減できる。
 S11の処理が実行されると、S3の処理に戻る。所望の振幅特性r5と位相特性r6が得られるまで、上記説明した処理が繰り返される。所望の振幅特性r5と位相特性r6が得られた場合、ユーザは、所定の終了操作をする。S3において、終了操作が受け付けられた場合(S3;終了操作)、本処理は終了する。SPU17における、係数α1~αnを用いた音声信号のフィルタ処理は、本処理の終了後も継続される。終了操作が受け付けられた場合、RAM13に記憶された最新の目標振幅特性r1、目標位相特性r2、レイテンシ値L、及び優先度Pが不揮発性メモリ12に記録される。これらの記録された値は、図8の処理が再び実行される場合に、S1において初期値として取得される。
 本実施形態の制御装置10は、レイテンシ値Lを満たすようにレスポンスIR1をトリミングして、レスポンスIR2を得る。制御装置10は、レスポンスFR2の振幅特性r3と目標振幅特性r1との差が小さくなるように、レスポンスIR2を補正して、レスポンスIR3を得る。これにより、フィルタFに設定される振幅特性r5と目標振幅特性r1との差を小さくすることができる。スピーカ20から補正されたレスポンスIR3のフィルタFで処理された音が出力される。
 また、制御装置10は、目標振幅特性r1及び目標位相特性r2をユーザ操作に応じて設定する。これにより、目標振幅特性r1及び目標位相特性r2の各々をユーザが自由に指定できる。フィルタFを設定する際のユーザの自由度が向上する。例えば、スピーカ20を設置する環境に応じてフィルタFを設定できる。
 また、制御装置10は、優先度Pに基づいてレスポンスIR2の補正の程度を変更する。これにより、目標振幅特性r1と目標位相特性r2とを任意のバランスで反映させたレスポンスIR3を得られる。
 また、制御装置10は、優先度Pをユーザ操作に応じて設定する。これにより、ユーザが優先度Pを自由に指定できる。フィルタFを設定する際のユーザの自由度が向上し、フィルタFの設定作業を支援できる。例えば、スピーカ20を設置する環境に応じた振幅特性r5及び位相特性r6を設定できる。
 また、振幅特性を優先するように優先度Pが変化した場合には、レスポンスFR3の振幅特性r5と目標振幅特性r1との差が小さくなる。位相特性を優先するように優先度Pが変化した場合には、レスポンスFR3の位相特性r6と目標位相特性r2との差が小さくなる。ユーザには、優先度Pに応じたレスポンスFR3の変化が直感的に分かりやすい。ユーザは、優先度Pを調整することで、フィルタFに、目標振幅特性r1と目標位相特性r2を所望のバランスで反映させたレスポンスFR3を設定できる。
 また、制御装置10は、レイテンシ値Lをユーザ操作により設定する。ユーザがレイテンシ値Lを任意に指定できてもよい。フィルタFを設定する際のユーザの自由度が向上する。例えば、スピーカ20の使用目的に応じたレイテンシ値Lを設定できる。例えば、SR用途であれば、短めのレイテンシ値(数十ミリ秒程度)がよい。音楽制作用途であれば、長めのレイテンシ値を設定しても問題ない。
 また、制御装置10は、レスポンスFR3の振幅特性r5と、目標振幅特性r1と、を比較可能に表示させる。また、制御装置10は、レスポンスFR3の位相特性r6と、目標位相特性r2と、を比較可能に表示させる。これにより、目標の特性と現状の特性の差をユーザが理解しやすくなり、ユーザによるフィルタFの設定作業を支援できる。
[4.変形例]
 なお、本発明は、以上に説明した実施形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
 例えば、優先度Pは、音声信号の周波数毎に独立して設定されてもよい。本変形例では、周波数帯域ごとに、優先度Pが記憶される。優先度Pは、周波数帯域の数だけ存在する。周波数帯域と優先度Pは1対1の関係である。本変形では、高・中・低の3つの周波数帯域が用意される。周波数帯域は、任意の数であってよい。例えば、2つ又は4つ以上の周波数帯域が用意されてもよい。
 例えば、3つの周波数帯域にそれぞれ対応する3つの優先度Pが記憶される。各周波数帯域の優先度Pは、互いに異なってもよいし、同じでもよい。例えば、各周波数帯域の優先度Pは、ユーザ操作に応じて、相互に独立に設定される。ユーザは、一部の周波数帯域の優先度Pだけを指定できてもよい。
 第3処理部106は、複数の周波数帯域の複数の優先度Pに応じてレスポンスIR2を補正して、レスポンスIR3を得る。2つの周波数帯域間で優先度Pが異なる場合、その2つの周波数帯域の境界部分で補正の程度をクロスフェードしてもよい。第3処理部106は、周波数帯域ごとの優先度Pに応じた補正の程度レスポンスIR2を補正する。本変形例では、乗算器106Cは、除算器106Bの計算結果に複数の周波数帯域の複数の優先度Pに基づく補正の程度を乗ずる。補正制御部106D以降の処理は、実施形態で説明した通りである。
 上記変形例によれば、優先度Pを周波数毎に独立して設定する。これにより、周波数毎に異なる補正の程度で補正されたレスポンスIR3を得る。周波数に応じた補正をすることで、ユーザは、スピーカ20から出力される音をより自由に制御できる。
 実施形態では、レスポンスIR1が得られてからトリミングが行われる場合を説明した。制御装置10が実行する処理の順番は、これに限られない。例えば、制御装置10は、目標振幅特性r1と目標位相特性r2の少なくとも一方をレイテンシ値Lに応じて変形した後に、変形後の目標振幅特性r1と目標位相特性r2に応じたレスポンスIR1を得てもよい。
 実施形態では、目標振幅特性r1と目標位相特性r2の両方がユーザ操作に応じて設定される場合を説明した。目標振幅特性r1及び目標位相特性r2の少なくとも一方がユーザ操作に応じて設定されてもよい。例えば、これらの何れか一方だけがユーザ操作に応じて設定されてもよい。また例えば、これらの両方が、ユーザ操作に応じて設定されずに固定値であってもよい。
 実施形態では、優先度Pに基づいて、レスポンスIR2の補正の程度が変更される場合を説明した。制御装置10は、特に優先度Pを利用せずに、レスポンスIR2を補正してもよい。例えば、制御装置10は、目標振幅特性r1と、レスポンスFR2の振幅特性r3と、の差の全てを利用して(優先度=1)、レスポンスIR2を補正してもよい。また例えば、制御装置10は、目標振幅特性r1と、レスポンスFR2の振幅特性r3と、の差に固定値の割合を乗じた特性を利用して、レスポンスIR2を補正してもよい。
 レスポンスFR3の振幅特性r5と目標振幅特性r1とは、比較可能に表示されなくてもよい。レスポンスFR3の位相特性r6と目標位相特性r2とは、比較可能に表示されなくてもよい。フィルタ制御画面Gは、特に表示されなくてもよい。なお、制御システムは、1台の制御装置10に限られない。制御システムは、ネットワーク又はシリアルバスで接続された複数台の装置を含んでもよい。

 

Claims (10)

  1.  音声信号を処理するフィルタの周波数レスポンスを制御する方法であって、
     前記周波数レスポンスは、振幅特性と位相特性とで規定されており、
     目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、
     前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、
     前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、
     前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る、
     制御方法。
  2.  前記目標振幅特性と前記目標位相特性の少なくとも一方をユーザ操作に応じて設定する、
     請求項1に記載の制御方法。
  3.  優先度に基づいて、前記第2周波数レスポンスの補正の程度を変更する、
     請求項1又は2に記載の制御方法。
  4.  前記優先度をユーザ操作に応じて設定する、
     請求項3に記載の制御方法。
  5.  振幅特性を優先するように前記優先度が変化した場合には、前記第3周波数レスポンスの振幅特性と前記目標振幅特性との差が小さくなり、
     位相特性を優先するように前記優先度が変化した場合には、前記第3周波数レスポンスの位相特性と前記目標位相特性との差が小さくなる、
     請求項4に記載の制御方法。
  6.  前記優先度は、前記音声信号の周波数毎に独立して設定される、
     請求項3~5の何れかに記載の制御方法。
  7.  前記レイテンシ値をユーザ操作に応じて設定する、
     請求項1~6の何れかに記載の制御方法。
  8.  前記第3周波数レスポンスの振幅特性及び位相特性の少なくとも一方と、前記目標振幅特性及び前記目標位相特性の少なくとも一方と、を比較可能に表示させる、
     を含む請求項1~7の何れかに記載の制御方法。
  9.  音声信号を処理するフィルタの周波数レスポンスを制御し、1以上のプロセッサと1以上のメモリとを具備する制御システムであって、
     前記周波数レスポンスは、振幅特性と位相特性とで規定されており、
     前記1以上のメモリに記憶されたプログラムを実行することにより、
     前記1以上のプロセッサが、
     目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、
     前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、
     前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、
     前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る、
     制御システム。
  10.  音声信号を処理するフィルタの周波数レスポンスを制御するコンピュータが読み出せるプログラムを記憶する1以上の記憶媒体であって、
     前記周波数レスポンスは、振幅特性と位相特性とで規定されており、
     前記プログラムは1以上のプロセッサに、
     目標振幅特性と、目標位相特性と、レイテンシ値と、を取得し、
     前記目標振幅特性及び前記目標位相特性に応じて第1周波数レスポンスを得て、
     前記第1周波数レスポンスにかかるレイテンシが前記レイテンシ値を満たすように、前記第1周波数レスポンスを加工して、第2周波数レスポンスを得て、
     前記第2周波数レスポンスの振幅特性と、前記目標振幅特性と、の差が小さくなるように、前記第2周波数レスポンスを補正して、前記フィルタに設定する第3周波数レスポンスを得る、
     動作を行わせる記憶媒体。

     
PCT/JP2020/013576 2019-09-30 2020-03-26 制御方法、制御システム、及び記憶媒体 WO2021065041A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20872619.0A EP4040675A1 (en) 2019-09-30 2020-03-26 Control method, control system, and storage medium
US17/701,028 US12041430B2 (en) 2019-09-30 2022-03-22 Control method, control system, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-178672 2019-09-30
JP2019178672A JP2021057734A (ja) 2019-09-30 2019-09-30 制御方法、制御装置、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/701,028 Continuation US12041430B2 (en) 2019-09-30 2022-03-22 Control method, control system, and storage medium

Publications (1)

Publication Number Publication Date
WO2021065041A1 true WO2021065041A1 (ja) 2021-04-08

Family

ID=75272797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/013576 WO2021065041A1 (ja) 2019-09-30 2020-03-26 制御方法、制御システム、及び記憶媒体

Country Status (4)

Country Link
US (1) US12041430B2 (ja)
EP (1) EP4040675A1 (ja)
JP (1) JP2021057734A (ja)
WO (1) WO2021065041A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63234616A (ja) * 1987-03-23 1988-09-29 Matsushita Electric Ind Co Ltd 位相・振幅制御デジタルフイルタ
JPH01160207A (ja) * 1987-12-17 1989-06-23 Matsushita Electric Ind Co Ltd 音質調整装置
JP2014050036A (ja) * 2012-09-03 2014-03-17 Maspro Denkoh Corp Firフィルタのフィルタ係数変換装置、方法、及びプログラム
WO2019181734A1 (ja) * 2018-03-23 2019-09-26 ヤマハ株式会社 フィルタ制御方法、オーディオ処理方法、フィルタ制御装置、プログラムおよびフィルタエレメント

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2681349B2 (ja) 1986-08-08 1997-11-26 ヤマハ株式会社 スピーカ再生装置
WO2008090899A1 (ja) * 2007-01-22 2008-07-31 Toa Corporation 音響調整装置、音響装置及び音声編集プログラム
JP2015103881A (ja) * 2013-11-21 2015-06-04 ソニー株式会社 音声信号処理装置および音声信号処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63234616A (ja) * 1987-03-23 1988-09-29 Matsushita Electric Ind Co Ltd 位相・振幅制御デジタルフイルタ
JPH01160207A (ja) * 1987-12-17 1989-06-23 Matsushita Electric Ind Co Ltd 音質調整装置
JP2014050036A (ja) * 2012-09-03 2014-03-17 Maspro Denkoh Corp Firフィルタのフィルタ係数変換装置、方法、及びプログラム
WO2019181734A1 (ja) * 2018-03-23 2019-09-26 ヤマハ株式会社 フィルタ制御方法、オーディオ処理方法、フィルタ制御装置、プログラムおよびフィルタエレメント

Also Published As

Publication number Publication date
EP4040675A1 (en) 2022-08-10
US12041430B2 (en) 2024-07-16
JP2021057734A (ja) 2021-04-08
US20220217467A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN104935281B (zh) 信号处理设备和方法
US9203366B2 (en) Audio processing
US8583717B2 (en) Signal processing circuit
EP3267581B1 (en) Filter generating device, filter generating method and filter generating program
WO2021065041A1 (ja) 制御方法、制御システム、及び記憶媒体
JP2007537630A (ja) デジタルフィルタ設計システムおよび方法
JPWO2018062406A1 (ja) フィルタの周波数レスポンス設定方法および設定装置
JP5611316B2 (ja) フィルタ
JP6710964B2 (ja) 音響効果制御装置、音響効果制御プログラムおよび音響効果制御方法
CN107251574B (zh) 相位控制信号生成设备、相位控制信号生成方法及计算机可读介质
JP2003273677A (ja) イコライザ及びそのプログラム
JP2017152873A (ja) 設定装置、方法及びプログラム
US20170351416A1 (en) Method for controlling an operating parameter of an acoustic apparatus
JP4247194B2 (ja) データ変換処理装置
WO2020075225A1 (ja) 効果音発生方法、及び情報処理装置
KR101086421B1 (ko) 필터 밴드간의 간섭을 소거하는 이득값 자동 조정 방법 및그를 채용한 그래픽 이퀄라이저
WO2021193752A1 (ja) 制御方法、制御装置、及び記憶媒体
JPH03201813A (ja) 音質調整装置
JP6070186B2 (ja) レコーダ
US20240329918A1 (en) Tuning estimation and modification
US10296208B2 (en) Method of adjusting an equalizer and electronic device performing the same
Langelaar et al. Development of real time audio equalizer application using Matlab App Designer
JP6484066B2 (ja) オーディオ装置
JP2022052423A (ja) Firフィルタを制御する方法および装置
CN112491392A (zh) 窗函数分数延时滤波器设计方法、装置及其存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20872619

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020872619

Country of ref document: EP

Effective date: 20220502