WO2023021735A1 - センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム - Google Patents

センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム Download PDF

Info

Publication number
WO2023021735A1
WO2023021735A1 PCT/JP2022/007158 JP2022007158W WO2023021735A1 WO 2023021735 A1 WO2023021735 A1 WO 2023021735A1 JP 2022007158 W JP2022007158 W JP 2022007158W WO 2023021735 A1 WO2023021735 A1 WO 2023021735A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
signal
sensor unit
vibration
unit
Prior art date
Application number
PCT/JP2022/007158
Other languages
English (en)
French (fr)
Inventor
繁利 林
徹徳 板橋
哲 曲谷地
善之 黒田
航也 佐藤
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2023542190A priority Critical patent/JPWO2023021735A1/ja
Publication of WO2023021735A1 publication Critical patent/WO2023021735A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present disclosure relates to sensor modules, active control devices, active control methods, and programs.
  • Spatial noise control consists of active control (also known as active control), which is realized by using driving parts such as speakers, and the use and shape of sound absorbing materials, sound insulation materials, damping materials, and vibration-proof materials, etc., without using driving parts. It is roughly divided into passive control (also called passive control) realized by optimizing Active control is known to be an effective means in the low frequency band, where passive control is less effective (more specifically, it is difficult to achieve due to low efficiency, large size, and high cost).
  • a microphone that collects sound as a sensor and a speaker that controls noise at the position of the eardrum as a control target are used to achieve noise reduction through active control.
  • acoustic radiation derived from vibrations of objects may cause noise.
  • it is possible to expand the control space by making the object itself that emits acoustic radiation the control target and actively controlling the vibration itself of the control target.
  • Non-Patent Document 1 discloses a technique that uses both information on sound pressure and particle velocity detected by a sensor.
  • Particle velocity sensors are very expensive compared to microphones and acceleration sensors. Therefore, the use of particle velocity sensors for a large number of measurement points is costly.
  • particle velocity sensors are normally installed without contact with a vibrating object and are used in a vibration-isolated state, it is difficult to install multiple particle velocity sensors at a constant distance from the object surface. be.
  • One of the purposes of the present disclosure is to enable active control to be performed easily at low cost.
  • the present disclosure for example, a first sensor unit installed on an object and measuring sound pressure; a second sensor unit installed on the object and measuring vibration; A signal of the vibration component of the object and a sound pressure component obtained by removing the vibration component of the object from the output signal of the first sensor unit, using the output signal of the first sensor unit and the output signal of the second sensor unit. and a signal processing unit that outputs two signals as module signals.
  • a signal processing unit for outputting, as module signals, a signal of a vibration component of the object and a signal of a sound pressure component obtained by removing the vibration component of the object from the output signal of the first sensor unit. is an active control device that controls an actuator in an active control system using the module signal output by the.
  • a first sensor unit that is installed on an object and measures sound pressure a second sensor unit that is installed on the object and measures vibration, and an output signal of the first sensor unit and an output signal of the second sensor unit.
  • a signal processing unit for outputting, as module signals, a signal of a vibration component of the object and a signal of a sound pressure component obtained by removing the vibration component of the object from the output signal of the first sensor unit. and controlling an actuator in an active control system using the module signal output by the active control method.
  • a signal processing unit for outputting, as module signals, a signal of a vibration component of the object and a signal of a sound pressure component obtained by removing the vibration component of the object from the output signal of the first sensor unit. is a program for causing a computer to execute a process of controlling an actuator in an active control system using the module signal output by the.
  • FIG. 1 is a diagram showing classification of sensors and controlled objects in noise control of active control.
  • FIG. 2 is a diagram showing vibration modes and their shapes in the panel.
  • FIG. 3 is an image diagram in which acoustic intensity is visualized.
  • FIG. 4 is an explanatory diagram for explaining the correlation between the particle velocity near the surface of the object and the vibration velocity of the object.
  • FIG. 5 is a diagram showing a schematic configuration example of the sensor module according to the first embodiment.
  • FIG. 6 is a diagram showing a specific configuration example of the sensor module.
  • FIG. 7 is a diagram showing another specific configuration example of the sensor module.
  • FIG. 8 is a diagram showing a schematic configuration example of a sensor module according to the second embodiment.
  • FIG. 9 is a diagram showing a schematic configuration example of a sensor module according to the third embodiment.
  • FIG. 10 is a diagram showing a schematic configuration example of a sensor module according to the fourth embodiment.
  • FIG. 11 is a diagram showing a schematic configuration example of a sensor module according to the fifth embodiment.
  • FIG. 12 is a diagram showing a system configuration example in the recording phase of the first usage example.
  • FIG. 13 is a diagram showing an installation example of the sensor module.
  • FIG. 14 is a functional block diagram showing a configuration example of the measuring device in the first usage example.
  • 15A and 15B are diagrams showing characteristics due to differences in the number of sensor modules.
  • FIG. FIG. 16 is a diagram showing a configuration example of the active control system of the first usage example.
  • FIG. 17 is a diagram showing an example of device settings.
  • FIG. 18 is a functional block diagram showing a configuration example of the active control system of the first usage example.
  • FIG. 19 is a flow chart showing the flow of processing in the active control system of the first usage example.
  • FIG. 20 is a diagram illustrating a hardware configuration example of an information processing apparatus.
  • FIG. 21 is a diagram showing a system configuration example in the recording phase of the second usage example.
  • FIG. 22 is a functional block diagram showing a configuration example of the measuring device in the second usage example.
  • FIG. 23 is a functional block diagram showing a configuration example of a sound pressure estimator when machine learning is used.
  • FIG. 24 is a diagram showing a configuration example of the active control system of the second usage example.
  • FIG. 25 is a functional block diagram showing a configuration example of the active control system of the second usage example.
  • FIG. 26 is a flow chart showing the flow of processing in the active control system of the second usage example.
  • FIG. 27 is a diagram showing an example of noise transmission paths between adjacent conference rooms.
  • FIG. 28 is a diagram for explaining transmitted energy when a wall vibrates with sound and becomes noise.
  • FIG. 29 is a diagram showing an example of noise transmission paths between other adjacent conference rooms.
  • Figure 1 shows the classification of sensors and controlled objects in active noise control.
  • Techniques for reducing noise are roughly classified into two. The first is to input (detect) sound with a sound sensor such as a microphone and output sound from a controlled object such as a speaker (sound control). The second is to input vibration with a vibration sensor such as an acceleration sensor and output sound from a controlled object such as a speaker.
  • the third method is to input vibrations with a vibration sensor such as an acceleration sensor and control vibrations of a controlled object such as a panel by applying vibrations from an actuator.
  • the control space can be expanded by actively controlling the vibration itself of the object (vibration sensor ⁇ vibration control in FIG. 1). ).
  • non-patent document 2 proposes a method of minimizing the acoustic radiation power from the object, instead of evaluating the vibration level of the object itself.
  • Non-Patent Document 2 Joseph Milton, Jordan Cheer, and Steve Daley, "Experimental identification of the radiation resistance matrix,” The Journal of the Acoustical Society of America 145, 2885 (2019); https://doi.org/10.1121/1.5102167.
  • FIG. 2 shows the vibration modes and their shapes in the panel.
  • FIG. 2 shows a plot of the vibration acceleration on the flat plate.
  • the vertical axis represents the amplitude value (dB) and the horizontal axis represents the frequency (Hz).
  • the vibration level of the object increases at the frequency at which resonance called the vibration mode occurs, and the vibration mode has an “anti node” of vibration that oscillates in opposite phases to each other. I understand.
  • Fig. 3 is an image diagram visualizing the "1, 3 mode" in Fig. 2 from the viewpoint of sound intensity.
  • the arrows in FIG. 3 represent the sound intensity.
  • Sound intensity is a vector quantity calculated by "sound pressure times particle velocity". It should be noted that the dashed-line waveform in the figure exaggerates the shaking of the panel.
  • Non-Patent Document 2 In other words, in order to control the acoustic energy (acoustic radiation power) radiated from a vibrating object, it is important to acquire data on both "sound pressure and particle velocity". Also in Non-Patent Document 2 mentioned above, control is performed by paying attention to this acoustic energy. In other words, we focus on both "sound pressure and particle velocity" and obtain the acoustic energy radiated from the object by the measurement system.
  • Non-Patent Document 1 proposes a technique for estimating the sound pressure at the position of the driver's ear in the vehicle compartment.
  • a method using both information of "sound pressure + particle velocity” is compared to the case of using only information of "particle velocity (or vibration velocity)".
  • the estimation performance is high in the high frequency range of 500 Hz or higher.
  • particle velocity sensors are generally very expensive, and measuring a large number of measurement points using a plurality of particle velocity sensors is disadvantageous in terms of cost.
  • FIG. 5 shows a schematic configuration example of a sensor module (sensor module 1) according to the first embodiment.
  • the sensor module 1 has a first sensor section 2 , a second sensor section 3 and a signal processing section 4 .
  • each of the first sensor unit 2 and the second sensor unit 3 is a measurable MEMS sensor, and is installed at positions close to each other with respect to the object T to be installed.
  • the object T is, for example, a panel-like object that can vibrate (for example, a plate of wood, glass, metal, synthetic resin, or the like).
  • the first sensor unit 2 and the second sensor unit 3 may be composed of sensors other than the MEMS sensor if miniaturization and weight reduction are not required.
  • FIG. 6 shows a specific configuration example of the sensor module 1.
  • the sensor module 1 has a configuration in which the first sensor section 2, the second sensor section 3 and the signal processing section 4 are formed on the substrate P.
  • the board P is specifically a printed circuit board (PCB). That is, the sensor module 1 has a structure in which two MEMS sensors are integrated by the substrate P. As shown in FIG.
  • the first sensor unit 2 is a MEMS microphone and has a transducer 21 , an ASIC (Application Specific Integrated Circuit) 22 and a housing 23 .
  • ASIC Application Specific Integrated Circuit
  • the transducer 21 is a converter that converts sound pressure into an electrical signal.
  • the transducer 21 is composed of, for example, a capacitive mechanical diaphragm.
  • the transducer 21 specifically includes a diaphragm and a back plate separated by a small gap. changes in are output as electrical signals.
  • the transducer 21 is connected to the ASIC 22 , and the electrical signal output by the transducer 21 is input to the ASIC 22 .
  • the ASIC 22 is a circuit that generates an output signal output from the first sensor section 2 .
  • the ASIC 22 has, for example, a charge pump and a preamplifier.
  • a charge pump is a circuit that provides a bias voltage to the backplate.
  • An electrical signal input from the transducer 21 is sent to a preamplifier, subjected to processing such as amplification, and output as an output signal of the first sensor section 2 .
  • the ASIC 22 is connected to the signal processing section 4 , and the output signal output by the first sensor section 2 is input to the signal processing section 4 .
  • the housing 23 is a cover member that covers the transducer 21 and the ASIC 22.
  • the housing 23 is specifically attached to the substrate P and accommodates the transducer 21 and the ASIC 22 in its internal space.
  • the housing 23 is made of resin, metal, or the like, for example.
  • a sound hole 24 is provided in the housing 23 by machining or the like.
  • the sound hole 24 takes in external sound into the housing 23 .
  • the shape, position, and number of the sound holes 24 are not limited to those shown in the figure, and may be arbitrary.
  • the sound hole 24 may be provided in the substrate P.
  • the second sensor unit 3 is specifically a MEMS sensor and has a transducer 31, an ASIC 32 and a housing 33.
  • Transducer 31 and ASIC 32 are the same as transducer 21 and ASIC 22 described above, respectively.
  • the transducer 31 is connected to the ASIC 32 , and the electrical signal output by the transducer 31 is input to the ASIC 32 .
  • the ASIC 32 is connected to the signal processing section 4 , and the output signal output by the second sensor section 3 (ASIC 32 ) is input to the signal processing section 4 .
  • the first sensor unit 2 and the second sensor unit 3 are, for example, arranged close to each other within a predetermined interval at which they can be regarded as having the same detection signal. More specifically, the first sensor unit 2 and the second sensor unit 3 are arranged at positions (intervals) such that vibrations of the object T measured by each are within a predetermined error range. Since this interval varies depending on the frequency, it is appropriately determined according to the recording environment and the like. Specifically, any interval may be sufficient as long as the interval can appropriately perform processing in a use example described later, for example, the closer the better. As the first sensor section 2 and the second sensor section 3, existing sensors that can be used independently may be used, and the sensor module 1 may be configured by detachably attaching the existing sensors.
  • the housing 33 is the same as the housing 23 described above, but differs from the housing 23 in that the sound hole 34 is blocked by the blocking portion 35 .
  • the closing portion 35 is formed by closing the sound hole 34 with a closing material such as an adhesive or a plug member.
  • a normal MEMS microphone first sensor section 2 having sound hole 24
  • a MEMS microphone second sensor section 3 having closed sound hole 34 are used.
  • the housing 33 may not have the sound hole 34 itself from the beginning.
  • the second sensor section 3 is a microphone having the same structure as the first sensor section 2, with the sound hole 34 closed (including a microphone in which the sound hole 34 is not originally provided).
  • both the first sensor unit 2 and the second sensor unit 3 are installed on the object T, so vibration information of the object T is detected through housing vibration. Since the sound hole 34 is closed, the second sensor unit 3 can be used as a device for simply detecting the vibration of the object T because the vibration of the microphone diaphragm (specifically, the diaphragm) is prevented by sound waves. can be used.
  • the second sensor unit 3 is provided with the sound hole 34 except that the sound hole 34 is closed.
  • the second sensor section 3 may be composed of an acceleration sensor.
  • the signal processing unit 4 is a signal processing circuit that generates the output signal of the sensor module 1.
  • the signal processing unit 4 uses the output signal of the first sensor unit 2 and the output signal of the second sensor unit 3 to extract the vibration component of the object T from the signal of the vibration component of the object T and the output signal of the first sensor unit 2. and the signal of the sound pressure component from which the is removed are output as module signals.
  • the signal processing unit 4 uses the output signal of the second sensor unit 3 as a signal of the vibration component of the object (vibration recording signal). Further, the signal processing unit 4 uses a signal obtained by subtracting the output signal of the second sensor unit 3 from the output signal of the first sensor unit 2 as a signal of the sound pressure component (sound pressure recording signal). More specifically, the signal processing unit 4 has a subtraction processing unit 41 to which the output signals of the first sensor unit 2 and the second sensor unit 3 are input. Subtraction processing for subtracting the input signal (“vibration” signal) from the second sensor unit 3 from the input signal (“vibration + sound” signal) from 2 is performed.
  • the signal processing unit 4 performs subtraction processing on the input signals from each of the first sensor unit 2 and the second sensor unit 3, thereby outputting information on sound pressure and vibration (vibration velocity). do.
  • FIG. 7 shows another specific configuration example of the sensor module 1.
  • the signal processing section 4 does not have to be arranged between the first sensor section 2 and the second sensor section 3 .
  • the signal processing section 4 may be configured integrally with either the ASIC 22 or the ASIC 32 .
  • the sensor module 1 may have a configuration in which the first sensor section 2 and the second sensor section 3 are integrated with a housing 23A. Also, if both transducers 21, 31 are sound-isolated, there may be no space between the first sensor section 2 and the second sensor section 3, as shown.
  • the sensor module 1 may have a memory for storing information on sound pressure and vibration (vibration velocity) output by the vibration processing unit 4, a processor for controlling the memory, and the like.
  • the sensor module 1 may have a microcomputer. Thereby, the measurement result can be stored.
  • the sensor module 1 is installed and used on the object T with the first sensor section 2 and the second sensor section 3 arranged close to each other.
  • the first sensor unit 2 measures the sound and the vibration of the object T through the sound hole 24 (see FIG. 6).
  • the second sensor unit 3 measures only the vibration of the object T because the sound hole 34 is closed.
  • the output signals (measurement signals) of the first sensor section 2 and the second sensor section 3 are input to the signal processing section 4 respectively.
  • the signal processing unit 4 outputs the measurement signal input from the second sensor unit 3 as a vibration recording signal. Further, the signal processing unit 4 performs signal processing on the measurement signals input from the first sensor unit 2 and the second sensor unit 3, and outputs the processed signals as sound pressure recording signals. Specifically, measurement signals input from the first sensor unit 2 and the second sensor unit 3 are input to the subtraction processing unit 41 of the signal processing unit 4 . The subtraction processing section 41 outputs a difference signal between the measurement signal from the first sensor section 2 and the measurement signal from the second sensor section 3 . As described above, the sensor module 1 outputs a vibration recorded signal and a sound pressure recorded signal.
  • the vibration acceleration (specifically, the integrated value of the vibration acceleration) can be substituted for the particle velocity on the surface of the object. Since the first sensor unit 2 measures the sound pressure and the vibration, and the second sensor unit 3 measures the vibration component, the signal processing unit 4 can separate the sound pressure and the vibration by simple signal processing as described above. can be done.
  • signals of sound pressure and vibration acceleration are obtained by mutually performing signal processing on each output signal of the first sensor unit 2 and the second sensor unit 3 which are arranged close to each other.
  • Both the first sensor unit 2 and the second sensor unit 3 are composed of MEMS sensors, and the MEMS sensors are inexpensively available as acceleration sensors. Therefore, compared with the case of using a very expensive particle velocity sensor (for example, 1,000,000 Yen/1ch), the cost can be drastically reduced.
  • an expensive piezoelectric acceleration sensor can be obtained. It can be realized at low cost (for example, several tens of yen) compared to the case of using a sensor (for example, 80,000 yen/1 channel). Therefore, it is possible to measure the sound pressure and particle velocity (vibration velocity) near the surface of the object T with an inexpensive device.
  • the vibration component (measurement signal of “vibration” in the second sensor unit 3) is subtracted from the measurement signal of “sound pressure + vibration” in the first sensor unit 2, so that the sound
  • the isolation between the pressure component and the vibration component can be enhanced.
  • the sound pressure value and vibration velocity can be calculated by signal processing. This makes it possible to calculate physical quantities necessary for noise control in space. Specifically, it is possible to measure the acoustic radiation power required for controlling vibration-derived noise radiated from an object. As described above, active control can be easily performed at low cost.
  • FIG. 8 shows a schematic configuration example of a sensor module (sensor module 1A) according to the second embodiment.
  • the sensor module 1A has a first sensor section 2, a second sensor section 3 and a signal processing section 4. As shown in FIG.
  • the sensor module 1A differs from the sensor module 1 of the first embodiment in the arrangement of the first sensor section 2 and the second sensor section 3 . Other points are the same as the first embodiment.
  • the first sensor unit 2 and the second sensor unit 3 are arranged on the surface of the object T by placing the first sensor unit 2 on the second sensor unit 3. are placed in close proximity. That is, the sensor module 1A has a structure in which the second sensor section 3 and the first sensor section 2 are stacked in order on the object T and installed.
  • the first sensor unit 2 and the second sensor unit 3 are not limited to the direction along the surface of the object T, and may be arranged close to each other in the direction orthogonal to the surface of the object T. Moreover, it does not have to be installed directly on the surface of the object T.
  • the first sensor unit 2 and the second sensor unit 3 may be installed on different surfaces of the object T, respectively.
  • the first sensor unit 2 is installed on the space side surface where the sound needs to be measured.
  • the first sensor section 2 may be arranged in a state in which the sound through the sound hole 24 and the vibration of the object T can be measured.
  • the second sensor section 3 may be arranged in a state in which the vibration of the object T can be measured. Since the first sensor unit 2 and the second sensor unit 3 are arranged close to each other, highly correlated vibration-derived signals are measured in each of them, so that the same operation as the sensor module 1 according to the first embodiment is realized. be able to.
  • the output signals of the first sensor unit 2 and the second sensor unit 3 which are arranged close to each other are subjected to mutual signal processing to obtain sound pressure and A vibration acceleration signal can be obtained. Therefore, the same effects as those of the above-described first embodiment are obtained. Specifically, active control can be easily performed at low cost.
  • first sensor unit 2 and the second sensor unit 3 measure the vibration at the same location of the object T, they can each measure a signal derived from the vibration with a higher correlation, and the sound pressure component and the vibration component isolation can be further increased. Moreover, since the first sensor unit 2 is arranged on the second sensor unit 3 installed on the surface of the object T, the installation area for the object T can be reduced.
  • FIG. 9 shows a schematic configuration example of a sensor module (sensor module 1B) according to the third embodiment.
  • the sensor module 1B has a first sensor section 2, a second sensor section 3 and a signal processing section 4B.
  • the signal processing unit 4B differs from the signal processing unit 4 described in the first embodiment in that it has a filter processing unit 42 . Differences from the first embodiment will be described below.
  • the signal processing unit 4B has a subtraction processing unit 41 and a filter processing unit 42.
  • the filtering section 42 absorbs the difference between the vibration detection characteristics of the first sensor section 2 and the second sensor section 3 . That is, the filter processing unit 42 corrects the vibration component.
  • the filter processing section 42 is provided between the second sensor section 3 and the subtraction processing section 41 .
  • the filter processing unit 42 performs, for example, a difference absorption process that absorbs the difference due to this change using a correction filter.
  • the measurement signal (vibration component) processed by the filter processor 42 is output to the subtraction processor 41 . That is, the subtraction processing unit 41 performs subtraction using the output signal (specifically, the output signal of the second sensor unit 3) whose difference has been absorbed by the filter processing unit 42 .
  • Other points are as described in the first embodiment.
  • the output signals of the first sensor unit 2 and the second sensor unit 3 which are arranged close to each other are subjected to mutual signal processing to obtain sound pressure and A vibration acceleration signal can be obtained. Therefore, the same effects as those of the above-described first embodiment are obtained. Specifically, active control can be easily performed at low cost.
  • the filter processing unit 42 corrects the difference in the change in the vibration recording characteristics due to the closing of the sound holes 34 (see FIG. 5), the vibration recording characteristics due to the closing of the sound holes 34 are corrected. It is possible to prevent sound pressure components from being properly recorded due to changes.
  • FIG. 10 shows a schematic configuration example of a sensor module (sensor module 1C) according to the fourth embodiment.
  • the sensor module 1C has a first sensor section 2, a second sensor section 3 and a signal processing section 4C.
  • the signal processing section 4C differs from the signal processing section 4 of the second embodiment in that it has a filter processing section 42C. Differences from the second embodiment will be described below.
  • the signal processor 4C has a subtraction processor 41 and a filter processor 42C.
  • Filter processing section 42 ⁇ /b>C absorbs the difference between the vibration detection characteristics of first sensor section 2 and second sensor section 3 , and is provided between second sensor section 3 and subtraction processing section 41 .
  • the filter processing unit 42C uses a correction filter to perform the same difference absorption processing as the filter processing unit 42 described above. Also, the vibration measured by the first sensor unit 2 is vibration damped by the second sensor unit 3 . Therefore, the filter processing unit 42C also performs difference absorption processing for absorbing the difference in vibration recording characteristics between the first sensor unit 2 and the second sensor unit 3 using a correction filter. Note that absorption of the difference by the correction filter is not limited to this. For example, when the first sensor unit 2 and the second sensor unit 3 are not arranged sufficiently close to each other, there are cases where the mutual measurement signals cannot be regarded as the same. In that case, the filter processing unit 42C may be used as a device that absorbs the difference with a correction filter and corrects it so that it can be regarded as the same. The same applies to the filter processing unit 42 of the third embodiment described above.
  • the measurement signal (vibration component) processed by the filter processing unit 42C is output to the subtraction processing unit 41.
  • the signal processing unit 4C outputs the output signal of the second sensor unit 3 as the vibration recording signal. good.
  • Other points (configuration, operation, etc.) are as described in the second embodiment.
  • the output signals of the first sensor unit 2 and the second sensor unit 3 arranged close to each other are subjected to mutual signal processing, thereby A vibration acceleration signal can be obtained. Therefore, the same effects as those of the above-described second embodiment are obtained. Specifically, active control can be easily performed at low cost.
  • the filter processing unit 42C the difference in the change in the vibration recording characteristics due to closing the sound hole 34 (see FIG. 5), the first sensor unit 2 to the object T via the second sensor unit 3 Since the difference in changes in vibration recording characteristics due to installation is corrected, it is possible to prevent sound pressure components from being properly recorded due to changes in these vibration recording characteristics.
  • FIG. 11 shows a schematic configuration example of a sensor module (sensor module 1D) according to the fifth embodiment.
  • the sensor module 1D has a first sensor section 2, a second sensor section 3 and a signal processing section 4D.
  • the first sensor section 2 and the second sensor section 3 are arranged in the same manner as the sensor module 1 according to the first embodiment.
  • the output signals of the first sensor section 2 and the second sensor section 3 are respectively input to the signal processing section 4D.
  • the signal processing unit 4D has a correction processing unit 43 that corrects the output signal of the first sensor unit 2 and the output signal of the second sensor unit 3 according to the recording ratio of vibration due to sound pressure in the second sensor unit 3.
  • the correction processing unit 43 is composed of a correction circuit that performs correction by generalized signal processing. Specifically, the correction processing unit 43 performs predetermined arithmetic processing on the output signals S1 and S2 of the first sensor unit 2 and the second sensor unit 3 to obtain the corrected vibration recorded signal u and sound pressure recorded signal p. to generate The correction processing unit 43 performs correction by generalized signal processing using the following equation (1), for example.
  • the elements a and b of the conversion matrix M are the sound and vibration recording ratios of the output signal S1 and the elements c and d are the sound and vibration recording ratios of the output signal S2.
  • Each element is appropriately adjusted so as to obtain a desired corrected vibration recorded signal u and sound pressure recorded signal p, and these can be defined in advance.
  • the correction processing unit 43 calculates the recorded vibration signal u and the recorded sound pressure signal p by executing the inverse matrix calculation of Equation (1). That is, the recorded vibration signal u and the recorded sound pressure signal p can be obtained from the following equation (2).
  • Non-Patent Document 1 when used only for sound pressure estimation at a distant position, it is not necessary to clearly decompose into sound pressure and particle velocity. Also, when performing active control using a signal processing block such as a DNN (Deep Neural Network) capable of estimating output information from input information by learning, it is not necessary to clearly separate sound pressure and particle velocity components. Therefore, the signal processing unit 4D may be configured with a correction circuit that performs processing including such a generalized format.
  • the output signals of the first sensor unit 2 and the second sensor unit 3 which are arranged close to each other are subjected to mutual signal processing to obtain sound pressure and A vibration acceleration signal can be obtained. Therefore, the same effects as those of the above-described first embodiment are obtained. Specifically, active control can be easily performed at low cost.
  • correction processing unit 43 useful components can be separated as appropriate. For example, it is possible to check in advance how much the sound and vibration components are included in the output signals of the first sensor unit 2 and the second sensor unit 3, and correct the settings accordingly. Specifically, when a sound pressure component is included in the output signal of the second sensor unit 3, filtering can be performed to remove the component.
  • FIG. 12 shows a configuration example of the system (measurement system 5A) in the recording phase.
  • noise generated outdoors for example, traffic noise
  • the intruding noise is radiated indoors as vibration-derived noise as a result of the window glass W being acoustically vibrated.
  • active control is performed with the windowpane W as the object to be controlled will be described as an example. It should be noted that objects other than the windowpane W may be controlled.
  • the measurement system 5A has a sensor module 1 and a measurement device 6.
  • the sensor module 1 is installed in an actual space (indoors in this example) in which active control is performed.
  • the sensor module 1 is attached to the surface of the window glass W on the indoor side. That is, the windowpane W corresponds to the object T described above.
  • FIG. 13 shows an installation example of the sensor module 1.
  • FIG. A plurality of sensor modules 1 are attached to the window glass W.
  • 16 sensor modules 1 are arranged at regular intervals. Note that the number and arrangement of the sensor modules 1 may be other than those illustrated.
  • Each sensor module 1 outputs a module signal (the sound pressure recording signal and the vibration recording signal described above).
  • each sensor module 1 is connected to a measuring device 6.
  • This connection is not limited to a specific one, and may be a wired connection or a wireless connection.
  • the measuring device 6 is an information processing device (for example, a personal computer) that functions as a computer.
  • the measuring device 6 records (for example, stores in a storage area) module signals input from each sensor module 1 . More specifically, the module signals of the sensor modules 1 are simultaneously recorded in a synchronized state.
  • the measuring device 6 used in the recording phase is used as an analysis device.
  • an information processing device other than the measurement device 6 may be used as the analysis device in the analysis phase.
  • FIG. 14 is a functional block diagram showing a configuration example of the measuring device 6.
  • the measurement device 6 uses the recorded module signal to analyze the measurement signal.
  • the measuring device 6 has a sensor analysis section 61 that analyzes the measurement signal.
  • the sensor analysis section 61 has a separation processing section 62 and an analysis processing section 63 .
  • the separation processing unit 62 is a block that separates the sensor module signal into a vibration component and a sound component, and is provided corresponding to each sensor module 1 .
  • the vibration component and sound component separated by each separation processing unit 62 are input to the analysis processing unit 63, respectively.
  • the analysis processing unit 63 is a block that analyzes the coupling of vibration and sound and estimates the power emitted from the window glass W (acoustic radiation power).
  • the analysis processing unit 63 uses the vibration component and the sound component of each sensor module 1 input from each separation processing unit 63 to calculate the acoustic intensity by "sound pressure x particle velocity (vibration velocity)" in an arithmetic circuit. do. Then, the analysis processing unit 63 calculates the sum of the acoustic intensities, estimates the calculation result as the acoustic radiation power, and outputs it (for example, stores it in a storage medium).
  • FIG. 15 shows features due to differences in the number of sensor modules 1.
  • FIG. 15 there is a trade-off relationship between the number of sensor modules 1 and the estimated performance. More specifically, if the number of sensor modules 1 is increased, the appearance is spoiled such as a decrease in transparency, but the performance of estimating the acoustic radiation power is improved. On the other hand, if the number of sensor modules 1 is reduced, the appearance is improved, such as by increasing the transparency, but the performance of estimating the acoustic radiation power is lowered.
  • the user can predict the estimated performance of the active control through the sensor analysis unit 61 (specifically, based on the acoustic radiation power) based on the sensor position selected as appropriate during recording. can be narrowed down.
  • FIG. 16 shows a configuration example of the system (active control system 5B) in the operation phase.
  • the active control system 5B has a sensor module 1 , an actuator 7 and an active controller 8 .
  • the sensor module 1 is connected to the active control device 8 instead of the analysis device (measurement device 6) used during analysis.
  • the analysis device measurement device 6
  • the measuring device 6 may be used if there is no processing problem, such as ensuring low delay.
  • the actuator 7 excites vibrations on the glass surface of the window glass W.
  • the actuator 7 for example, an exciter installed on a glass surface can be used.
  • the actuator 7 may be of any type as long as it excites vibration.
  • FIG. 17 shows an example of device settings.
  • the sensor module 1 is installed on the indoor surface of the window glass W in the same manner as during the measurement. Note that the sensor modules 1 are installed while leaving only those selected in the previous phase. Each sensor module 1 outputs the module signal described above.
  • the actuator 7 is installed on the surface of the window glass W on the outdoor side. In the illustrated example, one actuator 7 is installed at each of the four corners of the window glass W. As shown in FIG. The number and arrangement of actuators 7 are not limited to those illustrated. For example, it may be installed on the same indoor surface as the sensor module 1 . Each actuator 7 excites vibration in the window glass W by operating. Each sensor module 1 and each actuator 7 is connected to an active control device 8 respectively. This connection may be a wired connection or a wireless connection as long as it does not hinder the active control process.
  • the active control device 8 is an information processing device that functions as a computer. As described above, the active control device 8 is composed of, for example, a dedicated device that guarantees a low delay that does not interfere with active control processing.
  • FIG. 18 is a functional block diagram showing a configuration example of the active control system 5B. Although the feedforward control method will be described here, the same principle applies to the feedback control method. The same applies to other usage examples.
  • the active control system 5B has an acoustic radiation power estimation unit 51, an adaptive processing unit 52 and a filter unit 53 as functional blocks.
  • the acoustic radiation power estimation unit 51 and the adaptive processing unit 52 are included in the active control device 8 described above, and the filter unit 53 is included in the control module having the actuator 7 .
  • modules and devices having respective units, and connections between modules and devices can be changed as appropriate as long as the following operations (processes) can be executed.
  • the acoustic radiation power estimation unit 51 inputs the module signal of each sensor module 1 and estimates the acoustic radiation power. Specifically, the acoustic radiation power estimation unit 51 generates acoustic radiation power in the same way as the sensor analysis unit 61 in the analysis phase. The acoustic radiation power estimated by the acoustic radiation power estimator 51 is output to the adaptive processor 52 .
  • the adaptive processing unit 52 performs adaptive processing using an adaptive algorithm to design a control filter (adaptive filter). Adaptive processing performs calculations to optimize the overall system. This use case operates to minimize the acoustic radiation power. That is, by equalizing the intake and the exhalation described in FIG. 3, acoustic radiation due to vibration is effectively eliminated.
  • the control filter of the filter section 53 is designed so that the operation of each actuator 7 is optimized.
  • the adaptive processing unit 52 outputs the filter coefficients of the control filter to the filter unit 53 .
  • the filter unit 53 performs filtering using a control filter designed by the adaptive processing unit 52.
  • a reference signal output from a reference sensor for example, a microphone or an acceleration sensor
  • This reference microphone may be provided separately, or one of the sensor modules 1 may also be used as the reference microphone.
  • the filter unit 53 filters the input reference signal to generate a drive signal for each actuator 7 .
  • the generated drive signal is output to the corresponding actuator 7 to drive each actuator 7 .
  • FIG. 19 is a flow chart showing the flow of active control processing in the active control system 5B.
  • the active control device 8 records vibration and sound (step S10). Specifically, the active control device 8 records module signals (a vibration recording signal and a sound pressure recording signal) output from the sensor module 1 .
  • Active controller 8 estimates the acoustic radiation power (step S20). Specifically, the acoustic radiation power estimator 51 calculates the acoustic intensity from each module signal, and estimates the overall acoustic radiation power using the calculation result.
  • the active control device 8 executes adaptive processing (step S30). Specifically, the adaptive processing unit 52 uses the acoustic radiation power estimated by the acoustic radiation power estimation unit 51 to perform adaptive processing so that the acoustic radiation power is minimized. That is, design a control filter (calculate a filter coefficient) for filtering the reference signal in active control.
  • each actuator 7 is controlled (step S40).
  • FIG. 20 shows a hardware configuration example of an information processing device (information processing device 100) that can be employed in the measuring device 6, the active control device 8, and the like described above.
  • the information processing apparatus 100 has a control section 101, a storage section 102, an input section 103, a communication section 104 and an output section 105 interconnected by a bus.
  • the control unit 101 is composed of, for example, a CPU (Central Processing Unit), RAM (Random Access Memory) and ROM (Read Only Memory).
  • the ROM stores programs and the like that are read and operated by the CPU.
  • the RAM is used as work memory for the CPU.
  • the CPU controls the entire information processing apparatus 100 by executing various processes and issuing commands according to programs stored in the ROM.
  • the storage unit 102 is a storage medium configured by, for example, a HDD (Hard Disk Drive), an SSD (Solid State Drive), a semiconductor memory, or the like. , to store data such as programs (eg, applications).
  • a HDD Hard Disk Drive
  • SSD Solid State Drive
  • semiconductor memory or the like.
  • the input unit 103 is a device for inputting various types of information to the information processing device 100 .
  • the control unit 101 performs various processes corresponding to the input information.
  • the input unit 103 may be a mouse and keyboard, a microphone, various sensors, a touch panel, a touch screen integrated with a monitor, physical buttons, and the like.
  • Various types of information may be input to the information processing apparatus 100 via the communication unit 104, which will be described later.
  • the communication unit 104 is a communication module that communicates with other devices and the Internet according to a predetermined communication standard.
  • Communication methods include wireless LAN (Local Area Network) such as Wi-Fi (Wireless Fidelity), LTE (Long Term Evolution), 5G (5th generation mobile communication system), broadband, Bluetooth (registered trademark), etc. .
  • Wi-Fi Wireless Fidelity
  • LTE Long Term Evolution
  • 5G Fifth Generation mobile communication system
  • Bluetooth registered trademark
  • the output unit 105 is a device for outputting various information from the information processing device 100 .
  • the output unit 105 includes, for example, an output device such as a display for displaying images and videos, and a speaker.
  • Various types of information from the information processing apparatus 100 may be output via the communication unit 104 .
  • the control unit 101 performs various processes by reading and executing programs (eg, applications) stored in the storage unit 102, for example. In this manner, the information processing apparatus 100 functions as a computer.
  • programs eg, applications
  • the program does not have to be stored in the storage unit 102.
  • the information processing apparatus 100 may read and execute a program stored in a readable storage medium.
  • the storage medium include an optical disk, a magnetic disk, a semiconductor memory, an HDD, and the like that are detachably attached to the information processing apparatus 100 .
  • programs (eg, applications) and data are stored in a device (eg, cloud storage) connected to a network such as the Internet, and the information processing device 100 reads and executes the programs and data from there. good too.
  • Second Usage Example of Sensor Module> In the first usage example described above, the acoustic radiation power is estimated to control the sound in the entire space, but in this usage example, the error signal at a specific position is estimated to control the sound at the specific position.
  • FIG. 21 shows a configuration example of the system (measurement system 9A) in the recording phase.
  • the measurement system 9A has a sensor module 1, a microphone 10 and a measurement device 11.
  • FIG. The configuration and arrangement of the sensor modules 1 are as described in the first usage example, and each sensor module 1 outputs a module signal.
  • the microphone 10 like the sensor module 1, is installed in the actual space (indoors in this example) where active control is performed.
  • a microphone 10 is an error microphone in active control, is installed at a specific location indoors as a control point, and outputs the sound of the control point as an error signal.
  • Each sensor module 1 and microphone 10 is connected to a measuring device 11 respectively. This connection may be a wired connection or a wireless connection.
  • the measuring device 11 is composed of an information processing device (for example, a personal computer) that functions as a computer.
  • the measuring device 11 records (for example, stores in a storage area) the module signal input from each sensor module 1 and the error signal input from the microphone 10 . Specifically, each module signal and the error signal are simultaneously recorded in a synchronized state.
  • FIG. 22 is a functional block diagram showing a configuration example of the measuring device 11. As shown in FIG. In the analysis phase, the measurement device 11 uses the recorded module signal and error signal to analyze these measurement signals. Specifically, the measuring device 11 has a sensor analysis unit 110 that performs this analysis.
  • the sensor analysis unit 110 has a sound pressure estimation unit 120 and an arithmetic processing unit 130, and evaluates the sound pressure estimation performance at the installation position of the microphone 10.
  • the sound pressure estimation unit 120 estimates the sound pressure (estimation error signal) at the installation position of the microphone 10 . This corresponds to the sound pressure estimation at the headrest position in Non-Patent Document 1 described above.
  • the sound pressure estimator 120 receives the module signal of each sensor module 1 and learns using the measurement signal so as to minimize the square error between the error signal of the microphone 10 and the module signal of each sensor module 1 .
  • linear equations may be solved directly assuming linearity, or may be solved based on machine learning using error back propagation by a neural network.
  • the estimation algorithm used by the sound pressure estimation unit 120 is not limited to a specific algorithm as long as it can estimate the sound pressure at the installation position of the microphone 10 .
  • the acoustic radiation power in the first usage example described above may also be estimated using these estimation algorithms.
  • the sound pressure estimated by the sound pressure estimation unit 120 is output to the arithmetic processing unit 130 .
  • the arithmetic processing unit 130 calculates the difference between the sound pressure (estimation error signal) input from the sound pressure estimation unit 120 and the sound pressure (error signal) input from the microphone 10, and uses the calculation result to estimate the sound pressure. Output as performance (NC-level estimation).
  • the sound pressure estimation performance obtained from this analysis is directly linked to the noise reduction performance in active control.
  • the sensor analysis unit 110 outputs (for example, stores in a storage medium) the estimated performance output by the arithmetic processing unit 130 as the upper limit performance of active control.
  • FIG. 23 is a functional block diagram showing a configuration example of the sound pressure estimation unit 120 when machine learning is used.
  • the sound pressure estimation unit 120 generates a sound pressure estimation model that estimates the sound pressure at the position of the error microphone (microphone 10) by learning using the marginal performance (NC-level estimation) as the objective function. do.
  • the sound pressure estimation unit 120 can be configured by, for example, a learning processor.
  • the sound pressure estimation unit 120 specifically has a DNN processing unit 121 and a learning unit 122 .
  • the DNN processing unit 121 is composed of, for example, a deep neural network.
  • the DNN processing unit 121 receives the module signal of each sensor module 1 as input, generates an estimated error signal e (estimated sound pressure at the position of the microphone 10 ), and outputs it to the learning unit 122 .
  • the learning unit 122 receives the estimated error signal e and the error signal Perr of the microphone 10 as input, and learns by back propagation so as to minimize the objective function (NC-level estimation) according to, for example, the following equation (3). .
  • the learned model (sound pressure estimation model).
  • the sound pressure estimation model obtained in this way is saved for use.
  • the DNN processing unit 121 stores the learned sound pressure estimation model in the storage area in association with the selected sensor module 1 (sensor module group). As described above, the estimation error signal e can be estimated from the module signal of each sensor module 1 .
  • the limit performance (NC-level estimation) that can be achieved by this system is estimated by estimating the error signal from the module signal of each sensor module 1. Equivalent to error. Therefore, the energy ratio between the estimated error signal e and the error signal Perr may be used as an estimate of the NC performance.
  • FIG. 24 shows a configuration example of the system (active control system 9B) in the operation phase.
  • the active control system 9B has a sensor module 1, an actuator 7A and an active controller 12.
  • FIG. In other words, there is no problem in removing the microphone 10 installed in the recording phase in the operation phase. This is because the filter that maximizes the estimation performance of the microphone 10 (error microphone) from the sensor module 1 has already been calculated in the sound pressure estimation unit 120 in the analysis phase, as described above.
  • the sensor module 1 is connected to the active control device 12 instead of the analysis device (measurement device 11) used during analysis.
  • Other points for example, configuration, arrangement, etc.
  • the measuring device 11 may be used as long as low delay is ensured.
  • the actuator 7A controls the sound of the place where the microphone 10 was installed.
  • the same actuator configuration, number, arrangement, etc.
  • the actuator 7 described in the first example of use can be adopted.
  • the actuator 7A since it is sufficient to control the sound at a specific position, the actuator 7A is not limited to a device that applies vibration, and a speaker that directly excites sound (for example, a transparent speaker device) may be used. good. In this case, the placement location and number can be selected as appropriate.
  • Each sensor module 1 and each actuator 7A are connected to the active control device 12 respectively.
  • This connection may be a wired connection or a wireless connection as long as it does not hinder the active control process.
  • the active control device 12 is an information processing device that functions as a computer.
  • the active control device 12 is composed of, for example, a dedicated device that guarantees a low delay that does not hinder active control processing.
  • FIG. 25 is a functional block diagram showing a configuration example of the active control system 9B.
  • the active control system 5B has a sound pressure estimation section 91, an adaptive processing section 92 and a filter section 93 as functional blocks.
  • the sound pressure estimation unit 91 and the adaptive processing unit 92 are included in the active control device 12, and the filter unit 93 is included in the control module including the actuator 7A.
  • modules and devices having respective units, and connections between modules and devices can be changed as appropriate as long as the following operations (processes) can be executed.
  • the sound pressure estimation unit 91 is a processing block designed using "NC-level estimation” in the analysis phase. That is, the sound pressure estimator 91 receives the module signal of each sensor module 1, estimates an estimated error signal using an estimation algorithm, and outputs the estimated error signal. For this estimation, for example, the above-described trained sound pressure estimation model is used. The sound pressure estimation unit 91 selects a "sound pressure estimation model" corresponding to the selected sensor module 1 (sensor module group) and generates an estimation error signal. The generated estimated error signal is output to the adaptive processing section 92 .
  • the adaptive processing unit 92 performs adaptive processing using an adaptive algorithm to design a control filter. Adaptive processing performs calculations to optimize the overall system. This example of use operates to minimize the estimated error signal. In other words, by minimizing the level of the estimated error signal, active control of the location where the microphone 10 was installed can be achieved.
  • the control filter of the filter section 93 is designed so that the operation of each actuator 7A is optimized.
  • the adaptive processing unit 92 outputs the filter coefficients of the control filter to the filter unit 93 .
  • the filter unit 93 performs filtering using a control filter designed by the adaptive processing unit 92 .
  • a reference signal output from a reference microphone in active control is input to the filter unit 93 .
  • this reference microphone may be provided separately, or the sensor module 1 may also be used.
  • the filter unit 93 filters the input reference signal to generate a drive signal for each actuator 7A.
  • the generated drive signal is output to the corresponding actuator 7A to drive each actuator 7A.
  • FIG. 26 is a flow chart showing the flow of active control processing in the active control system 9B.
  • the active control device 12 records vibration and sound (step S110). Specifically, the active control device 12 records module signals (a vibration recording signal and a sound pressure recording signal) output from the sensor module 1 .
  • the active control device 12 estimates the sound pressure at the error microphone position (where the microphone 10 was installed) (step S120). Specifically, the sound pressure estimation unit 91 estimates the error signal using an estimation algorithm such as a neural network.
  • the active control device 12 executes adaptive processing (step S130). Specifically, the adaptive processing unit 92 uses the sound pressure (estimated error signal) estimated by the sound pressure estimating unit 91 to perform adaptive processing so that the estimated error signal is minimized. That is, design a control filter (calculate a filter coefficient) for filtering the reference signal in active control.
  • each actuator 7A is controlled (step S140).
  • a hardware configuration example of an information processing device that can be employed in the above-described measurement device 11, active control device 12, etc. is as described in the first usage example (see FIG. 20).
  • the sensor module 1 can also be used in applications different from the first and second use cases. For example, as a case where a noise complaint occurs, it is conceivable that noise (conversation sound, etc.) from an adjacent room can be heard between conference rooms. This usage example corresponds to such a case.
  • FIG. 27 shows an example of noise transmission paths between adjacent conference rooms.
  • the walls that partition the interior extend to the bottom of the floor slab on the upper floor, almost no sound leaks into the next room through the ceiling, so the radiant energy from the walls ( vibration ⁇ sound noise) becomes dominant.
  • FIG. 28 is a diagram for explaining transmitted energy when a wall vibrates with sound and becomes noise.
  • the generated sound energy is partly absorbed by the walls and partly reflected by the walls. And the rest pass through the wall. Therefore, the vibration of the wall should be controlled so that the energy passing through the wall is minimized.
  • this vibration control can apply the systems of the first use example and the second use example described above.
  • the target object should be changed to the windowpane W and used as a wall. Also, in this case, it is sufficient to reduce the noise in the space where the sensor module 1 is not provided.
  • the acoustic radiation power may be estimated so that the acoustic radiation from the walls becomes small, or the sound pressure at a specific position on the side of the room into which the sound leaks may be estimated.
  • the space in which active control is performed is not limited to the space in which the sensor module 1 is provided. As described above, it is possible to reduce the noise in the adjacent room by eliminating acoustic radiation from the wall to the adjacent room.
  • FIG. 29 shows an example of noise transmission paths between other adjacent conference rooms.
  • the wall that separates the room extends only to the ceiling and does not extend to the bottom of the floor slab on the upper floor, sound leaks into the next room through the ceiling.
  • the noise (sound pressure) due to this leakage becomes dominant.
  • the dominant noise source changes depending on whether the boundary wall exists below the slab (see FIG. 27) or only below the ceiling (see this figure).
  • the sensor module 1 can separate and extract the sound pressure and the particle velocity (or vibration velocity). Therefore, as shown in FIG. (near the ceiling), record the sound pressure, and perform known active control (either feedforward control method or feedback control method) of "sound ⁇ sound" shown in Fig. 1. good. That is, although detailed description is omitted here, it is sufficient to control a speaker or the like in a room into which sound leaks and output a sound that cancels out the recorded sound pressure.
  • the sensor module 1 has the advantage of being able to record "sound pressure + vibration velocity", so such a thing can be realized. Note that this example of use and another example of use may be combined so that at least one of them may be executed so that any dominant sound can be dealt with.
  • the sensor module 1 by using the sensor module 1, active control can be easily performed at low cost as described above. Since the sensor module 1 can record not only vibration but also sound pressure, unlike the case of using an acceleration sensor, it can also be applied to active control in which sound is recorded and processed to cancel the recorded sound. can be done.
  • the vibration of the window glass W or the wall that emits sound is controlled by actuators (actuators 7, 7A, etc.) to reduce noise, and the unremoved noise is reduced by actuators (for example, speakers, etc.).
  • active control may be performed in two steps.
  • the active control for reducing noise was exemplified, but the present invention is not limited to this, and can also be applied to a mode of controlling a space to a specific sound.
  • applications are not limited to the above-described use examples, and can be applied to various applications using at least one of sound pressure and vibration (particle velocity).
  • sound pressure and vibration particle velocity
  • it may be used for active control of sounds inside and outside a vehicle, inside and outside a concert venue, on a highway, and the like.
  • the present disclosure can also adopt the following configuration.
  • a first sensor unit installed on an object and measuring sound pressure; a second sensor unit installed on the object and measuring vibration; A signal of the vibration component of the object and a sound pressure component obtained by removing the vibration component of the object from the output signal of the first sensor unit, using the output signal of the first sensor unit and the output signal of the second sensor unit. and a signal processing unit that outputs two of the signals of and as module signals.
  • the output signal of the second sensor unit is a signal of the vibration component of the object,
  • the sensor module according to (1) wherein a signal obtained by subtracting the output signal of the second sensor section from the output signal of the first sensor section is used as the signal of the sound pressure component.
  • the first sensor unit is a microphone having a sound hole
  • the signal processing unit has a filter processing unit that absorbs a difference between the vibration detection characteristics of the first sensor unit and the second sensor unit, and uses the output signal in which the difference is absorbed by the filter processing unit.
  • an active control device for controlling an actuator in an active control system using the module signal output by the active control device.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

例えば、低コストで容易にアクティブ制御を行えるようにする。 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールである。

Description

センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム
 本開示は、センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラムに関する。
 近年、静寂な空間を作り出す技術として空間ノイズコントロール(NC:Noise Control)という技術が注目されている。空間ノイズコントロールは、スピーカなどの駆動部を用いて実現するアクティブ制御(能動制御とも呼ばれる)と、駆動部を用いずに、吸音材、遮音材、制震材、防振材等の利用や形状の適正化などによって実現するパッシブ制御(受動制御とも呼ばれる)とに大別される。アクティブ制御は、パッシブ制御では効果が薄い(具体的には、低効率、大型化、コスト高等により実現が困難)とされている低域の周波数帯域にて有効な手段であることが知られている。
 従来のヘッドホンNCにおいては、例えば、センサとして音を集音するマイクロホンと、制御対象として鼓膜位置における騒音を制御するためのスピーカとを用いてアクティブ制御による静音化を実現している。
 一方で、物体の振動に由来する音響放射が騒音の原因となっている場合がある。この場合、音響放射している物体自体を制御対象とし、その制御対象の振動そのものをアクティブに制御することで、制御空間を拡大することができる。
 このような物体からの振動由来の騒音を制御するためには、測定用のデバイスとしてセンサが必要となる。このセンサとしては、制御対象の物体表面付近の粒子速度や音圧などの情報を測定できるものが望ましい。例えば、下記の非特許文献1には、センサで検出された音圧と粒子速度の両情報を用いる技術が開示されている。
Andrea Grosso, Daniel Fernandez Comesana and Hans-Elias De Bree, "Further Development of the PNCA: New Panel Noise Contribution Reference-Related (PNCAR)," SAE Int. J. Passeng. Cars - Mech. Syst. 5(2): 2012, doi:10.4271/2012-01-1539.
 粒子速度センサを用いて上述した粒子速度を収録する場合、物体表面からの距離を一定にして複数点を測定することが望ましいが、この場合、以下の問題がある。
 粒子速度センサは、マイクロホンや加速度センサなどと比べて非常に高価である。そのため、多数の測定点に対して粒子速度センサを使用するとコストが高くなる。
 また、粒子速度センサは、通常、振動物体と非接触で設置し振動絶縁がなされた状態で使用されるため、物体表面からの距離を一定にして複数の粒子速度センサを設置することは困難である。
 本開示は、低コストで容易にアクティブ制御を行えるようにすることを目的の一つとする。
 本開示は、例えば、
 物体に設置され音圧を測定する第1センサ部と、
 前記物体に設置され振動を測定する第2センサ部と、
 前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部と
 を有するセンサモジュールである。
 本開示は、例えば、
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 アクティブ制御装置である。
 本開示は、例えば、
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 アクティブ制御方法である。
 本開示は、例えば、
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 処理をコンピュータに実行させるプログラムである。
図1は、アクティブ制御のノイズコントロールにおけるセンサおよび制御対象の分類を表す図である。 図2は、パネルにおける振動モードとその形状を表す図である。 図3は、音響インテンシティを可視化したイメージ図である。 図4は、物体表面付近の粒子速度と物体の振動速度との相関を説明する説明図である。 図5は、第1実施形態に係るセンサモジュールの模式的な構成例を示す図である。 図6は、センサモジュールの具体的な構成例を示す図である。 図7は、センサモジュールの他の具体的な構成例を示す図である。 図8は、第2実施形態に係るセンサモジュールの模式的な構成例を示す図である。 図9は、第3実施形態に係るセンサモジュールの模式的な構成例を示す図である。 図10は、第4実施形態に係るセンサモジュールの模式的な構成例を示す図である。 図11は、第5実施形態に係るセンサモジュールの模式的な構成例を示す図である。 図12は、第1使用例の収録フェーズにおけるシステム構成例を示す図である。 図13は、センサモジュールの設置例を示す図である。 図14は、第1使用例における測定装置の構成例を示す機能ブロック図である。 図15は、センサモジュールの数の違いによる特徴を表す図である。 図16は、第1使用例のアクティブ制御システムの構成例を示す図である。 図17は、デバイスのセッティング例を示す図である。 図18は、第1使用例のアクティブ制御システムの構成例を示す機能ブロック図である。 図19は、第1使用例のアクティブ制御システムでの処理の流れを示すフローチャートである。 図20は、情報処理装置のハードウェア構成例を示す図である。 図21は、第2使用例の収録フェーズにおけるシステム構成例を示す図である。 図22は、第2使用例における測定装置の構成例を示す機能ブロック図である。 図23は、機械学習を用いた場合の音圧推定部の構成例を示す機能ブロック図である。 図24は、第2使用例のアクティブ制御システムの構成例を示す図である。 図25は、第2使用例のアクティブ制御システムの構成例を示す機能ブロック図である。 図26は、第2使用例のアクティブ制御システムでの処理の流れを示すフローチャートである。 図27は、隣接する会議室間における騒音伝達の経路例を示す図である。 図28は、音で壁が振動し騒音になる場合の透過エネルギーについて説明するための図である。 図29は、他の隣接する会議室間における騒音伝達の経路例を示す図である。
 以下、本開示の実施形態等について図面を参照しながら説明する。なお、以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態等に限定されるものではない。以下の説明において、実質的に同一の機能構成を有するものについては同一の符号を付し、重複説明を適宜省略する。説明は以下の順序で行う。
<1.実施形態において考慮すべき問題>
<2.第1実施形態>
<3.第2実施形態>
<4.第3実施形態>
<5.第4実施形態>
<6.第5実施形態>
<7.センサモジュールの第1使用例>
<8.センサモジュールの第2使用例>
<9.センサモジュールの第3使用例>
<10.変形例>
<1.実施形態において考慮すべき問題>
 始めに、実施形態に対する理解を容易とするために、実施形態において考慮すべき問題について説明する。
 図1は、アクティブ制御のノイズコントロールにおけるセンサおよび制御対象の分類を表している。静音化の手法としては、例えば、大きく2つに分類される。第1はマイクロホンなどの音センサで音を入力(検出)してスピーカなどの制御対象から音を出力(音制御)するものである。第2は加速度センサなどの振動センサで振動を入力してスピーカなどの制御対象から音を出力するものである。第3は加速度センサなどの振動センサで振動を入力してアクチュエータによる加振によりパネルなどの制御対象の振動を制御するものである。
 物体の振動による音響放射が騒音の原因となっている場合、上述したように、対象の振動そのものをアクティブ制御することで、制御空間を拡大させることができる(図1における、振動センサ→振動制御)。
 ところで、振動制御における大前提として、物体の振動を全ての点で完全にゼロにすることができれば、対応して放射される騒音も低減しゼロにすることができる。しかし、アクチュエータなどの制御デバイスや加速度センサなどのセンサモジュールに対して無限のリソースが理論上必要となり、現実的にはデバイス数には運用上の上限が存在するため、全ての点において振動レベルをゼロに制御することは困難である。
 そこで、物体の振動レベルそのものを評価対象にするのではなく、物体からの音響放射パワーを評価対象とし最小化する手法が下記の非特許文献2などで提案されている。
 [非特許文献2]
 Joseph Milton, Jordan Cheer, and Steve Daley, "Experimental identification of the radiation resistance matrix," The Journal of the Acoustical Society of America 145, 2885 (2019); https://doi.org/10.1121/1.5102167.
 図2は、パネルにおける振動モードとその形状を表している。図2には、平板における振動の加速度をプロットした図が示されている。図2中のグラフにおいて縦軸は振幅値(dB)を表し、横軸は周波数(Hz)を表している。図示する通り、物体の振動レベルは振動モードと呼ばれる共振が発生する周波数で大きくなっていること、そして振動モードには互いに逆位相で振れる振動の「腹(anti node)」が発生していることが分かる。
 図3は、図2中における「1,3モード」を音響インテンシティの観点で可視化したイメージ図である。図3中の矢印は音響インテンシティを表している。音響インテンシティは、「音圧×粒子速度」によって計算されるベクトル量である。なお、図中の破線波形は、パネルの揺れを誇張表現したものである。
 この図から、振動モードにおける音響インテンシティ流と、エネルギーの吐き出しおよび吸い込みを把握することができる。図3から分かる通り、お互いに逆位相で振幅するモードの「腹」の間(隣接「腹」間)でエネルギーのやり取りが発生しており、このエネルギーの流れを適切に制御すれば、遠方の音場にノイズが放射されないことが想像できる。
 つまり、振動物体から放射される音響エネルギー(音響放射パワー)を制御するためには、「音圧と粒子速度」の両方のデータを取得することが重要である。上述した非特許文献2においても、この音響エネルギーに着目した制御を行っている。つまり、「音圧と粒子速度」の両方に注目し、物体から放射される音響エネルギーを測定システムによって求めている。
 さらに、非特許文献2の中では、振動物体表面の粒子速度と、物体の振動加速度(換言すると、振動速度の微分値)との間に強い相関があることが示されている。詳述すると、「物体表面の粒子速度=物体の振動速度(加速度の積分値)」の近似が、物体表面付近であれば成立することが示されている。つまり、図4に示すように、測定する音圧が物体の表面に近ければ、音圧信号と物体の振動加速度とを用いて音響放射パワーを計算できることが示されている。
 ここで、音圧と粒子速度の両情報を用いることのメリットについて説明する。上述した非特許文献1では、車室内において運転手の耳位置における音圧を推定する技術について提案されている。この非特許文献1には、この音圧の推定において、「粒子速度(もしくは振動速度)」の情報のみを用いた場合と比較して、「音圧+粒子速度」の両情報を用いた方が、500Hz以上の高域において推定性能が高いことが示されている。
 これは、非特許文献2において音響放射パワーを計算したときと同様に、「音圧と粒子速度」の両情報を用いた方が、空間の情報が正確に計算できるためである。ここからも、物体表面における「音圧+粒子速度」の両情報を取得することが重要だとわかる。
 しかしながら、実際に「音圧+粒子速度」の両情報を用いるシステムの導入には問題が存在する。例えば、粒子速度センサを固定する際には、振動物体との振動絶縁がなされているべきである。その理由は、粒子速度センサに対して物体の振動が伝搬することで正しい測定データが収録できないためである。
 また、粒子速度や音圧を収録する際には、性能向上の観点から、物体表面からの距離を一定にして複数の点を測定することが望ましいが、このようなデバイスの設置と振動絶縁とを同時に達成することは非常に困難である。また、一般的に粒子速度センサは非常に高価であり、複数の粒子速度センサを用いて多数の測定点を測定するには、コスト面で不利である。
 そこで、以下の実施形態では、空気中の粒子速度は、振動物体表面の振動速度(もしくは振動加速度)から推定が可能であるという性質を利用し、これらの問題を解決する。具体的には、以下の実施形態では、近接配置した2つのMEMS(Micro Electro Mechanical Systems:微小電気機械システム)センサ信号を用いて、物体における音圧と粒子速度(具体的には、振動速度で近似)の両情報を収録するセンサモジュールを提案する。
<2.第1実施形態>
[センサモジュールの構成例]
 図5は、第1実施形態に係るセンサモジュール(センサモジュール1)の模式的な構成例を示している。センサモジュール1は、第1センサ部2、第2センサ部3および信号処理部4を有している。第1センサ部2および第2センサ部3は、具体的には、各々が測定可能なMEMSセンサであり、設置対象の物体Tに対して互いに近接する位置に設置されている。物体Tは、例えば、振動が生じ得るパネル状のもの(例えば、木、ガラス、金属、合成樹脂等の板)である。なお、第1センサ部2および第2センサ部3は、小型軽量化が必要ないのであれば、MEMSセンサ以外で構成してもよい。
 図6は、センサモジュール1の具体的な構成例を示している。本構成例においては、センサモジュール1は、第1センサ部2、第2センサ部3および信号処理部4を基板P上に形成した構成を有している。基板Pは、具体的には、プリント回路基板(PCB:Printed Circuit Board)である。つまり、センサモジュール1は、基板Pにより2つのMEMSセンサを一体化させた構成を有している。
 第1センサ部2は、具体的には、MEMSマイクロホンであり、トランスデューサ21、ASIC(Application Specific Integrated Circuit)22および筐体23を有している。
 トランスデューサ21は、音圧を電気信号に変換する変換部である。トランスデューサ21は、例えば、静電容量型の機械式ダイヤフラムで構成されている。この場合、トランスデューサ21は、具体的には、僅かな空隙を隔てて配置されたダイヤフラムとバックプレートとを有して構成され、音圧でダイヤフラムが振動して空隙長が変わることによる静電容量の変化を電気信号として出力する。トランスデューサ21は、ASIC22と接続されており、トランスデューサ21が出力した電気信号は、ASIC22に入力される。
 ASIC22は、第1センサ部2から出力される出力信号を生成する回路である。ASIC22は、例えば、チャージポンプとプリアンプとを有している。チャージポンプは、バックプレートにバイアス電圧を供給する回路である。トランスデューサ21から入力される電気信号は、プリアンプに送られて増幅等の処理が施され、第1センサ部2の出力信号として出力される。ASIC22は、信号処理部4と接続されており、第1センサ部2が出力した出力信号は、信号処理部4に入力される。
 筐体23は、トランスデューサ21およびASIC22を覆うカバー部材である。筐体23は、具体的には、基板Pに取り付けられ、内部空間にトランスデューサ21およびASIC22を収容する。筐体23は、例えば、樹脂、金属等で構成されている。なお、筐体23には、機械加工等により音孔24が設けられている。音孔24は、筐体23内に外部の音を取り込むものである。なお、音孔24の形状、位置、数は、図示したものに限らず、任意のものを用いてよい。例えば、音孔24は、基板Pに設けられていてもよい。
 第2センサ部3は、具体的には、MEMSセンサであり、トランスデューサ31、ASIC32および筐体33を有している。トランスデューサ31およびASIC32は、それぞれ、上述したトランスデューサ21およびASIC22と同じものである。トランスデューサ31は、ASIC32と接続されており、トランスデューサ31が出力した電気信号は、ASIC32に入力される。ASIC32は、信号処理部4と接続されており、第2センサ部3(ASIC32)が出力した出力信号は、信号処理部4に入力される。
 第1センサ部2と第2センサ部3とは、例えば、互いの検出信号が同じであるとみなすことができる所定以内の間隔で近接配置されている。詳述すると、第1センサ部2および第2センサ部3は、各々により測定される物体Tの振動が所定の誤差範囲内に収まる位置(間隔)に配置されている。この間隔は周波数によって変動するため、収録環境などに応じて適宜決定する。具体的には、後述する使用例における処理を適切に行える間隔であればよく、例えば、近ければ近い程よい。なお、第1センサ部2および第2センサ部3として、各々単独で使用可能な既存のセンサを用い、その既存のセンサを着脱自在に取り付けてセンサモジュール1を構成してもよい。
 筐体33は、上述した筐体23と同じものであるが、音孔34が閉塞部35により塞がれている点において筐体23とは相違する。閉塞部35は、例えば、接着剤、栓部材等の閉塞材を用いて音孔34を閉塞加工したものである。このように、本実施形態では、音孔24を有する通常のMEMSマイクロホン(第1センサ部2)と、音孔34が塞がれているMEMSマイクロホン(第2センサ部3)とを使用する。なお、筐体33は、初めから音孔34自体が設けられていないものであってもよい。このように、第2センサ部3は、第1センサ部2と同じ構造のマイクロホンの音孔34を塞いだもの(元々音孔34が設けられていないものを含む)となっている。
 図5に示すように、第1センサ部2および第2センサ部3は、どちらも物体Tに設置されるので、物体Tの振動情報が筐体振動を通じて検出される。第2センサ部3は、音孔34が塞がれていることで音波によってマイクロホンの振動板(具体的には、ダイヤフラム)が揺れることがなくなるので簡易的に物体Tの振動を検出するデバイスとして使用することができる。なお、ここでは、第1センサ部2と第2センサ部3とで測定される物体Tの振動を同じとすべく、第2センサ部3は、音孔34が塞がれている以外、第1センサ部2と同じ構造としているが、同様のことを行えるのであれば違っていても構わない。例えば、第2センサ部3は、加速度センサで構成されていてもよい。
 信号処理部4は、センサモジュール1の出力信号を生成する信号処理回路である。信号処理部4は、第1センサ部2の出力信号および第2センサ部3の出力信号を用いて、物体Tの振動成分の信号と、第1センサ部2の出力信号から物体Tの振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する。
 具体的には、信号処理部4は、図5に示すように、第2センサ部3の出力信号を物体の振動成分の信号(振動収録信号)とする。また、信号処理部4は、第1センサ部2の出力信号から第2センサ部3の出力信号を減算した信号を音圧成分の信号(音圧収録信号)とする。より具体的には、信号処理部4は、第1センサ部2および第2センサ部3の出力信号が入力される減算処理部41を有しており、減算処理部41は、第1センサ部2からの入力信号(「振動+音」の信号)に対して第2センサ部3からの入力信号(「振動」の信号)を減算する減算処理を実施する。
 第1センサ部2および第2センサ部3は、十分に隣接しているので、第1センサ部2および第2センサ部3においては、相関の高い振動由来の信号が検出される。そのため、図5に示す通り、第1センサ部2および第2センサ部3の両センサの出力信号に対してこの減算処理を実施することで、振動由来の成分と音圧の成分とを分離することができる。このように、信号処理部4は、第1センサ部2および第2センサ部3の各々からの入力信号に対して減算処理を施すことで、音圧および振動(振動速度)の情報を各々出力する。
 なお、センサモジュール1への第1センサ部2、第2センサ部3および信号処理部4の組み込み構成は、図6に示したものに限らない。図7は、センサモジュール1の他の具体的な構成例を示している。図7に示すように、信号処理部4は、第1センサ部2および第2センサ部3の間に配置されていなくてもよい。例えば、信号処理部4は、ASIC22およびASIC32の何れかと一体的に構成されていてもよい。また、図示するように、センサモジュール1は、第1センサ部2と第2センサ部3とで一体的な筐体23Aを用いる構成であってもよい。また、双方のトランスデューサ21,31が音について隔離されているならば、図示するように、第1センサ部2および第2センサ部3間に空間が設けられていなくてもよい。また、センサモジュール1は、振動処理部4が出力する音圧および振動(振動速度)の各情報を記憶するメモリやメモリを制御するプロセッサなどを有していてもよい。例えば、センサモジュール1は、マイクロコンピュータを有していてもよい。これにより、測定結果を記憶しておくことができる。
[センサモジュールの動作例]
 図5に示すように、センサモジュール1は、第1センサ部2と第2センサ部3とが近接配置される状態で物体Tに設置され使用される。第1センサ部2は、音孔24(図6参照)を通じた音と、物体Tの振動とを測定する。第2センサ部3は、音孔34が塞がれていることにより、物体Tの振動のみを測定する。この第1センサ部2および第2センサ部3の出力信号(測定信号)は、各々、信号処理部4に入力される。
 信号処理部4は、第2センサ部3から入力された測定信号を振動収録信号として出力する。また、信号処理部4は、第1センサ部2および第2センサ部3から入力される測定信号に信号処理を施し、その信号処理を施した信号を音圧収録信号として出力する。具体的には、第1センサ部2および第2センサ部3から入力される測定信号は、信号処理部4の減算処理部41に入力される。減算処理部41は、第1センサ部2からの測定信号と第2センサ部3からの測定信号との差分信号を出力する。以上によって、センサモジュール1は、振動収録信号と音圧収録信号とを出力する。
 第1センサ部2および第2センサ部3は、物体Tの表面に配置されるため、物体Tから一定の距離を保った状態で音圧および振動を測定することができる。また、物体Tの表面付近であれば、「粒子速度=振動速度」の近似が成立する。よって、振動加速度(具体的には、振動加速度の積分値)を物体表面の粒子速度として代用することができる。第1センサ部2が音圧と振動を測定し、第2センサ部3が振動成分を測定するので、上述したように信号処理部4において簡単な信号処理で音圧と振動とを分離することができる。
[まとめ]
 本実施形態では、近接配置した第1センサ部2および第2センサ部3の各出力信号に対して相互に信号処理を施すことで音圧と振動加速度(振動速度の微分値)の信号を得ることができる。第1センサ部2および第2センサ部3は、ともにMEMSセンサで構成されており、MEMSセンサは、加速度センサとして安価に入手可能である。そのため、非常に高価な粒子速度センサ(例えば、100万円/1ch)を用いる場合と比較してコストを飛躍的に抑えることができる。特に、第1センサ部2をMEMSマイクロホンで構成し、第2センサ部3を音孔34が塞がれた(設けられていない場合を含む)MEMSマイクロホンで構成することで、高価な圧電型加速度センサ(例えば、8万円/1ch)などを用いる場合と比較しても安価(例えば、数十円)に実現することができる。したがって、安価なデバイスで物体Tの表面付近の音圧と粒子速度(振動速度)とを測定することができる。
 また、上述したように物体Tの加速度を収録することにより、一律に表面での測定が可能になる。これにより、粒子速度センサを使用する際に生じる問題である、物体表面からの距離のバラつきを抑えることができる。つまり、第1センサ部2および第2センサ部3を物体Tの表面に設置して物体表面の振動速度を使用することにより、粒子速度センサを使用する場合に問題となった、デバイス毎に設置誤差として発生する、表面からの距離のバラつきを抑えることができる。
 また、信号処理として音圧の収録時に第1センサ部2における「音圧+振動」の測定信号に対して振動成分(第2センサ部3における「振動」の測定信号)を減算するため、音圧成分と振動成分のアイソレーションを高めることができる。
 また、信号処理により音圧値と振動速度とを計算することができる。これにより、空間での騒音制御に必要な物理量を計算することができるようになる。具体的には、物体から放射される振動由来の騒音について制御する際に必要となる音響放射パワーを測定することができる。以上によって、低コストで且つ容易にアクティブ制御を行えるようになる。
<3.第2実施形態>
 図8は、第2実施形態に係るセンサモジュール(センサモジュール1A)の模式的な構成例を示している。センサモジュール1Aは、第1センサ部2、第2センサ部3および信号処理部4を有している。センサモジュール1Aは、第1センサ部2および第2センサ部3の配置が第1実施形態のセンサモジュール1と相違する。他の点は、第1実施形態と同じである。
 本実施形態に係るセンサモジュール1Aは、物体Tの表面に配置されている第2センサ部3の上に第1センサ部2を配置することで、第1センサ部2および第2センサ部3を近接配置している。つまり、センサモジュール1Aは、物体Tに対して第2センサ部3および第1センサ部2が順に積層して設置される構造を有している。このように、第1センサ部2および第2センサ部3は、物体Tの表面に沿った方向に限らず、物体Tの表面に直交する方向に近接配置するものなどであってもよい。また、物体Tの表面に直に設置するものでなくてもよい。
 なお、ここでは図示を省略するが、第1センサ部2および第2センサ部3は、物体Tの異なる面にそれぞれ設置されていてもよい。この場合、音を測定する必要がある空間側の面に第1センサ部2を設置することになる。なお、この場合、第2センサ部3からは、第1センサ部2と同じ面に設置した場合と逆位相の振動が測定されるため位相を合わせる必要がある。
 このように、第1センサ部2および第2センサ部3は、近接して配置できていればよい。第1センサ部2は、音孔24を通じた音と、物体Tの振動とを測定できる状態で配置すればよい。第2センサ部3は、物体Tの振動を測定できる状態で配置すればよい。第1センサ部2および第2センサ部3が近接配置されていることにより相関の高い振動由来の信号が各々において測定されるため、第1実施形態に係るセンサモジュール1と同様の動作を実現することができる。
 以上説明したように、本実施形態では第1実施形態と同様に、近接配置した第1センサ部2および第2センサ部3の各出力信号に対して相互に信号処理を施すことで音圧と振動加速度の信号を得ることができる。したがって、上述した第1実施形態と同様の効果を奏する。具体的には、低コストで且つ容易にアクティブ制御を行えるようになる。
 また、第1センサ部2および第2センサ部3は、物体Tの同じ場所の振動を測定するため、より相関の高い振動由来の信号を各々が測定することができ、音圧成分と振動成分のアイソレーションをさらに高めることができる。また、物体Tの表面に設置した第2センサ部3に第1センサ部2が配置されるため、物体Tに対する設置面積を小さくすることができる。
<4.第3実施形態>
 図9は、第3実施形態に係るセンサモジュール(センサモジュール1B)の模式的な構成例を示している。センサモジュール1Bは、第1センサ部2、第2センサ部3および信号処理部4Bを有している。信号処理部4Bは、フィルタ処理部42を有する点が、第1実施形態で説明した信号処理部4と相違する。以下、第1実施形態との相違点について説明する。
 信号処理部4Bは、減算処理部41とフィルタ処理部42とを有している。フィルタ処理部42は、第1センサ部2および第2センサ部3の振動検出特性の差分を吸収するものである。つまり、フィルタ処理部42は、振動成分に対する補正を行う。フィルタ処理部42は、具体的には、第2センサ部3と減算処理部41との間に設けられている。
 第2センサ部3は、音孔34(図6参照)を塞いだ結果、MEMSセンサにおける振動伝達の感度が、音孔34ありの場合と比較して変化する場合がある。フィルタ処理部42は、例えば、この変化による差分を吸収する差分吸収処理を補正フィルタによって実施する。フィルタ処理部42で処理された測定信号(振動成分)は、減算処理部41に出力される。つまり、減算処理部41は、フィルタ処理部42により差分が吸収された出力信号(具体的には、第2センサ部3の出力信号)を用いて減算を行う。他の点(構成、動作等)は、第1実施形態で説明した通りである。
 以上説明したように、本実施形態では第1実施形態と同様に、近接配置した第1センサ部2および第2センサ部3の各出力信号に対して相互に信号処理を施すことで音圧と振動加速度の信号を得ることができる。したがって、上述した第1実施形態と同様の効果を奏する。具体的には、低コストで且つ容易にアクティブ制御を行えるようになる。
 また、フィルタ処理部42を有することにより、音孔34(図5を参照)を塞いだことによる振動収録特性の変化の差分が補正されるため、音孔34を塞いだことによる振動収録特性の変化によって音圧成分の収録が適切に行われなくなることを防ぐことができる。
<5.第4実施形態>
 図10は、第4実施形態に係るセンサモジュール(センサモジュール1C)の模式的な構成例を示している。センサモジュール1Cは、第1センサ部2、第2センサ部3および信号処理部4Cを有している。信号処理部4Cは、フィルタ処理部42Cを有する点が、第2実施形態の信号処理部4と相違する。以下、第2実施形態との相違点について説明する。
 信号処理部4Cは、減算処理部41とフィルタ処理部42Cとを有している。フィルタ処理部42Cは、第1センサ部2および第2センサ部3の振動検出特性の差分を吸収するものであり、第2センサ部3と減算処理部41との間に設けられている。
 フィルタ処理部42Cは、上述したフィルタ処理部42と同様の差分吸収処理を補正フィルタによって実施する。また、第1センサ部2で測定される振動は、第2センサ部3での振動減衰が生じたものである。そこで、フィルタ処理部42Cは、この第1センサ部2および第2センサ部3間での振動収録特性の差分を吸収する差分吸収処理についても補正フィルタによって実施する。なお、補正フィルタによる差分の吸収は、これに限らない。例えば、第1センサ部2と第2センサ部3とが十分に近接配置されていない場合などで、互いの測定信号が同じとみなせないような場合がある。その場合、フィルタ処理部42Cは、その差分を補正フィルタにより吸収して同じとみなせるように補正するものとして使用してもよい。上述した第3実施形態のフィルタ処理部42についても同様である。
 フィルタ処理部42Cで処理された測定信号(振動成分)は、減算処理部41に出力される。なお、図示した例では、信号処理部4Cは、第2センサ部3の出力信号を振動収録信号として出力しているが、フィルタ処理部42Cにより処理された信号を振動収録信号として出力してもよい。第3実施形態の信号処理部4Bについても同様である。他の点(構成、動作等)は、第2実施形態で説明した通りである。
 以上説明したように、本実施形態では第2実施形態と同様に、近接配置した第1センサ部2および第2センサ部3の各出力信号に対して相互に信号処理を施すことで音圧と振動加速度の信号を得ることができる。したがって、上述した第2実施形態と同様の効果を奏する。具体的には、低コストで容易にアクティブ制御を行えるようになる。
 また、フィルタ処理部42Cを有することにより、音孔34(図5を参照)を塞いだことによる振動収録特性の変化の差分、第1センサ部2が第2センサ部3を介して物体Tに設置されていることによる振動収録特性の変化の差分などが補正されるため、これらの振動収録特性の変化によって音圧成分の収録が適切に行われなくなることを防ぐことができる。
<6.第5実施形態>
 上述した各実施形態では、簡単な演算処理を用いて振動成分と音圧成分とを分離する例について説明したが、本開示の骨子としては、音圧と振動速度の収録比率が異なる近接配置されたデバイスを用いて有用な成分を分離することがあげられる。よって、実施の際は下記に示すように、より汎用な信号処理を実施してもよい。
 図11は、第5実施形態に係るセンサモジュール(センサモジュール1D)の模式的な構成例を示している。センサモジュール1Dは、第1センサ部2、第2センサ部3および信号処理部4Dを有している。第1センサ部2および第2センサ部3は、第1実施形態に係るセンサモジュール1と同じ配置となっている。第1センサ部2および第2センサ部3の出力信号は、各々、信号処理部4Dに入力される。
 信号処理部4Dは、第2センサ部3における音圧による振動の収録比率に応じて、第1センサ部2の出力信号および第2センサ部3の出力信号を補正する補正処理部43を有している。例えば、補正処理部43は、一般化した信号処理による補正を行う補正回路で構成されている。具体的には、補正処理部43は、第1センサ部2および第2センサ部3の出力信号S1,S2に対し所定の演算処理を施して補正後の振動収録信号uおよび音圧収録信号pを生成する。補正処理部43は、例えば、下記の式(1)を利用して一般化した信号処理による補正を行う。
Figure JPOXMLDOC01-appb-M000001
 変換行列Mの要素a、bは、出力信号S1の音、振動の収録比率であり、要素c、dは、出力信号S2の音、振動の収録比率である。各要素は、所望に補正された振動収録信号uおよび音圧収録信号pが得られるように適宜調整されるものであり、これらは事前に定義しておくことができる。例えば、上述した第1実施形態のケースは、「a=0」、かつ「b=d」として定義した場合に相当する。また、第3実施形態および第4実施形態のケースは、「a=0」かつ「b≠d」のケースに相当する。
 補正処理部43は、例えば、式(1)の逆行列演算を実行することで振動収録信号uおよび音圧収録信号pを算出する。すなわち、次式(2)により振動収録信号uおよび音圧収録信号pを求めることができる。
Figure JPOXMLDOC01-appb-M000002
 もちろん、上述した非特許文献2のように明確に音響インテンシティを算出するためには音圧と粒子速度(もしくは振動速度)に分解して計算する必要がある。しかしながら、非特許文献1のように、離れた位置での音圧推定のみに使用する場合は、明確に音圧と粒子速度に分解する必要はない。また、入力情報から学習により出力情報を推定可能なDNN(Deep Neural Network)などの信号処理ブロックを用いてアクティブ制御を実施する場合も、明確に音圧と粒子速度成分に分離する必要はない。よって、信号処理部4Dは、このような一般化した形式を含む処理を行う補正回路で構成されていてもよい。
 以上説明したように、本実施形態では第1実施形態と同様に、近接配置した第1センサ部2および第2センサ部3の各出力信号に対して相互に信号処理を施すことで音圧と振動加速度の信号を得ることができる。したがって、上述した第1実施形態と同様の効果を奏する。具体的には、低コストで且つ容易にアクティブ制御を行えるようになる。
 また、補正処理部43を有することで有用な成分を適宜分離することができる。例えば、第1センサ部2および第2センサ部3の出力信号に、音と振動の成分がそれぞれどれくらい含まれているかを事前に調べ、それに合わせた設定で補正することができる。具体的には、第2センサ部3の出力信号に音圧成分が含まれている場合に、その成分が除去されるようなフィルタリングを行うことができる。
<7.センサモジュールの第1使用例>
 本使用例では、上述したセンサモジュール1を用いてアクティブ制御(具体的には、アクティブノイズコントロール)を実施する。本使用例でのアクティブ制御は、収録フェーズ、解析フェーズおよび運用フェーズの3つの段階を経由して達成される。後述する第2使用例も同じである。以下、段階毎に詳しく説明する。なお、本使用例では、第1実施形態に係るセンサモジュール1を適用した場合を例にして説明するが、他の実施形態等のセンサモジュール(例えば、センサモジュール1A等)を適用してもよい。後述する他の使用例についても同じである。
 [収録フェーズのシステム構成例]
 図12は、収録フェーズにおけるシステム(測定システム5A)の構成例を示している。本使用例(後述する第2使用例も同じ)においては、屋外で発生した騒音(例えば、交通騒音等)が窓を経由して室内に侵入する環境を想定している。侵入する騒音は、窓ガラスWが音響加振された結果、振動由来の騒音として屋内に放射される。このように、ここでは窓ガラスWを制御対象としてアクティブ制御する場合を例にして説明する。なお、窓ガラスW以外を制御対象としても構わない。
 測定システム5Aは、センサモジュール1および測定装置6を有している。センサモジュール1は、アクティブ制御を実施する実際の空間(本例では屋内)に設置される。本例では、センサモジュール1は、窓ガラスWの屋内側の表面に取り付けられている。つまり、窓ガラスWが上述した物体Tに相当する。
 図13は、センサモジュール1の設置例を示している。窓ガラスWには、複数のセンサモジュール1が取り付けられている。例えば、図示した例では、16個のセンサモジュール1が均等な間隔で配置されている。なお、センサモジュール1の数および配置は、図示したもの以外であってもよい。各センサモジュール1は、モジュール信号(上述した音圧収録信号および振動収録信号)を出力する。
 図12に示すように、各センサモジュール1は、測定装置6と接続されている。この接続は、特定のものに限定されず、有線接続であってもよいし、無線接続であってもよい。測定装置6は、コンピュータとして機能する情報処理装置(例えば、パーソナルコンピュータ)である。測定装置6は、各センサモジュール1から入力されるモジュール信号を収録(例えば、記憶領域に記憶)する。なお、各センサモジュール1のモジュール信号は、具体的には、同時に同期がとれた状態で収録される。
[解析フェーズのシステム構成例]
 解析フェーズでは、収録フェーズで用いた測定装置6を解析装置として使用する。なお、収録フェーズで収録されたモジュール信号を利用できるのであれば、解析フェーズにおいて測定装置6以外の他の情報処理装置を解析装置として用いても構わない。
 図14は、測定装置6の構成例を示す機能ブロック図である。解析フェーズでは、測定装置6は、収録されたモジュール信号を用いて、その測定信号の解析を行う。具体的には、測定装置6は、測定信号の解析を行うセンサ解析部61を有している。センサ解析部61は、分離処理部62と、解析処理部63とを有している。分離処理部62は、センサモジュール信号を振動成分と音成分とに分離するブロックであり、各センサモジュール1に対応して設けられている。各分離処理部62によって分離された振動成分および音成分は、それぞれ解析処理部63に入力される。
 解析処理部63は、振動と音の連成を解析して窓ガラスWから放射されるパワー(音響放射パワー)を推定するブロックである。解析処理部63は、各分離処理部63から入力される各センサモジュール1の振動成分および音成分を用いて「音圧×粒子速度(振動速度)」による音響インテンシティを演算回路にてそれぞれ算出する。そして、解析処理部63は、各音響インテンシティの総和を算出し、算出結果を音響放射パワーと推定して出力(例えば、記憶媒体に記憶)する。
 ここで、解析処理においては、可能な限り多数のセンサモジュール1を配置した方が音響放射パワーを正確に推定することができる。しかし、実際の運用時は、デザイン配置制約やデバイスコスト観点などによりセンサ数の絞り込みを行う必要が出てくるケースも考えられる。
 図15は、センサモジュール1の数の違いによる特徴を表している。図15に示した通り、センサモジュール1の数と推定性能の間にはトレードオフの関係が成立する。具体的には、センサモジュール1の数を増やせば、透明性が低下するなど外観は損なわれるが、音響放射パワーの推定性能は高くなる。一方で、センサモジュール1の数を減らせば、透明性が高くなるなど外観はよくなるが、音響放射パワーの推定性能は低くなる。ユーザは、収録の際に適宜選択したセンサ位置から、推定されるアクティブ制御の性能について、センサ解析部61を通して予測(具体的には、音響放射パワーで予測)できるので、アプリケーションに対応したセンサ位置の絞り込みを実施可能である。
 [運用時のシステム構成例]
 運用フェーズでは、実際にアクティブ制御に用いるアクチュエータを配置してアクティブ制御処理をリアルタイムにて実施する。図16は、運用フェーズにおけるシステム(アクティブ制御システム5B)の構成例を示している。アクティブ制御システム5Bは、センサモジュール1、アクチュエータ7およびアクティブ制御装置8を有している。
 センサモジュール1は、解析時に使用した解析装置(測定装置6)ではなく、アクティブ制御装置8に接続されている点が測定時および解析時とは相違する。これは、運用時には、低遅延が担保された専用のアクティブ制御可能な信号処理デバイスを接続する必要があるためである。他の点(例えば、構成、配置等)は、測定時および解析時と同じである。なお、低遅延が担保されているなど、処理的に問題がないのであれば測定装置6を用いてもよい。
 アクチュエータ7は、窓ガラスWのガラス面に振動を励起するものである。アクチュエータ7としては、例えば、ガラス面に設置して使用するエキサイターを用いることができる。なお、アクチュエータ7は、振動を励起するものであればよく、その種類は問わない。
 図17は、デバイスのセッティング例を示している。センサモジュール1は、窓ガラスWの屋内側の表面に測定時と同じに設置する。なお、センサモジュール1は、前フェーズで選択したもののみを残して設置する。各センサモジュール1は、上述したモジュール信号を出力する。
 アクチュエータ7は、窓ガラスWの屋外側の表面に設置する。図示した例では、窓ガラスWの四隅に1つずつアクチュエータ7を設置している。なお、アクチュエータ7の数および配置は、図示したものに限らない。例えば、センサモジュール1と同じ屋内側の表面に設置してもよい。各アクチュエータ7は、動作することで窓ガラスWに振動を励起する。各センサモジュール1と各アクチュエータ7は、それぞれアクティブ制御装置8と接続されている。この接続は、アクティブ制御処理に支障がなければよく、有線接続であってもよいし、無線接続であってもよい。
 アクティブ制御装置8は、コンピュータとして機能する情報処理装置である。上述したように、アクティブ制御装置8は、例えば、アクティブ制御処理に支障がない低遅延が担保された専用装置で構成される。
 図18は、アクティブ制御システム5Bの構成例を示す機能ブロック図である。なお、ここではフィードフォワード制御方式について説明するが、フィードバック制御方式の場合も本質としては同様である。他の使用例についても同様である。
 アクティブ制御システム5Bは、機能ブロックとして音響放射パワー推定部51、適応処理部52およびフィルタ部53を有している。例えば、音響放射パワー推定部51および適応処理部52は、上述したアクティブ制御装置8が有しており、フィルタ部53は、アクチュエータ7を有する制御モジュールが有している。なお、各部を有するモジュールや装置、モジュール間や装置間の接続は、以下の動作(処理)を実行可能な限りにおいて、適宜、変更可能である。
 音響放射パワー推定部51は、各センサモジュール1のモジュール信号を入力して音響放射パワーを推定する。音響放射パワー推定部51は、具体的には、解析フェーズにおけるセンサ解析部61と同じに音響放射パワーを生成する。音響放射パワー推定部51が推定した音響放射パワーは、適応処理部52に出力される。
 適応処理部52は、適応アルゴリズム(Adaptive Algorithm)による適応処理を行い、制御フィルタ(適応フィルタ)の設計を行う。適応処理では、システム全体の最適化がなされるように計算を行う。本使用例では、音響放射パワーが最小化するように動作する。つまり、図3において説明した吸い込みと吐き出しが均等となるようにすることで、効果的に振動による音響放射をなくす。図示の例においては、各アクチュエータ7の動作が各々最適化されるようにフィルタ部53の制御フィルタを設計する。適応処理部52は、具体的には、制御フィルタのフィルタ係数をフィルタ部53に出力する。
 フィルタ部53は、適応処理部52により設計された制御フィルタによるフィルタリングを行う。フィルタ部53には、アクティブ制御における参照信号を検出する参照センサ(例えば、マイクロホン、加速度センサ)から出力された参照信号が入力される。この参照マイクロホンは、別途設けてもよいし、センサモジュール1のうちの何れかを参照マイクロホンとして兼用してもよい。フィルタ部53は、入力された参照信号をフィルタリングして各アクチュエータ7の駆動信号をそれぞれ生成する。生成された駆動信号は、対応するアクチュエータ7に出力され、各アクチュエータ7が駆動する。
[アクティブ制御処理のフロー例]
 図19は、アクティブ制御システム5Bにおけるアクティブ制御処理の流れを示すフローチャートである。アクティブ制御処理では、まず、アクティブ制御装置8が振動および音を収録する(ステップS10)。具体的には、アクティブ制御装置8は、センサモジュール1から出力されるモジュール信号(振動収録信号および音圧収録信号)を収録する。次に、アクティブ制御装置8は、音響放射パワーを推定する(ステップS20)。具体的には、音響放射パワー推定部51が各モジュール信号からそれぞれの音響インテンシティを算出し、算出結果を用いて全体の音響放射パワーを推定する。
 次に、アクティブ制御装置8は、適応処理を実行する(ステップS30)。具体的には、適応処理部52が音響放射パワー推定部51で推定された音響放射パワーを用いて、音響放射パワーが最小化されるように適応処理を行う。つまり、アクティブ制御における参照信号をフィルタリングする制御フィルタを設計(フィルタ係数を算出)する。
 そして、設計された制御フィルタで参照信号がフィルタリングされ、各アクチュエータ7が制御される(ステップS40)。このように各アクチュエータ7が制御されることで、窓ガラスWから放射される音響放射パワーが最小となり、空間全体を静音化することができる。
[情報処理装置のハードウェア構成例]
 図20は、上述した測定装置6、アクティブ制御装置8などに採用し得る情報処理装置(情報処理装置100)のハードウェア構成例を示している。情報処理装置100は、バスにより相互接続されている制御部101、記憶部102、入力部103、通信部104および出力部105を有している。
 制御部101は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などで構成されている。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムにしたがい様々な処理を実行してコマンドの発行を行うことによって情報処理装置100全体の制御を行う。
 記憶部102は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、半導体メモリなどにより構成された記憶媒体であり、画像データ、動画データ、音声データ、テキストデータなどのコンテンツデータの他、プログラム(例えば、アプリケーション)などのデータを保存するものである。
 入力部103は、情報処理装置100に対して各種情報を入力するための装置である。入力部103により情報が入力されると、制御部101は、その入力情報に対応した各種処理を行う。入力部103は、マウスおよびキーボードの他、マイクロホン、各種センサ、タッチパネル、モニタと一体に構成されたタッチスクリーン、物理ボタンなどでもよい。なお、情報処理装置100への各種情報の入力は、後述する通信部104を介して行われる構成であってもよい。
 通信部104は、所定の通信規格により他の装置やインターネットと通信する通信モジュールである。通信方法としては、Wi-Fi(Wireless Fidelity)などの無線LAN(Local Area Network)、LTE(Long Term Evolution)、5G(第5世代移動通信システム)、ブロードバンド、Bluetooth(登録商標)などがあげられる。
 出力部105は、情報処理装置100から各種情報を出力するための装置である。出力部105は、例えば、画像や映像を表示するディスプレイ、スピーカなどの出力デバイスで構成されている。なお、情報処理装置100からの各種情報の出力は、通信部104を介して行われる構成であってもよい。
 制御部101は、例えば、記憶部102に記憶されているプログラム(例えば、アプリケーション)を読み出し実行することで各種処理を行う。このように、情報処理装置100は、コンピュータとしての機能を有している。
 なお、プログラム(例えば、アプリケーション)は、記憶部102に記憶されていなくてもよい。例えば、情報処理装置100が読み取り可能な記憶媒体に記憶されているプログラムを読み出して実行するようにしてもよい。この記憶媒体としては、例えば、情報処理装置100に対して着脱自在な光ディスク、磁気ディスク、半導体メモリ、HDDなどがあげられる。また、インターネットなどのネットワークに接続された装置(例えば、クラウドストレージ)にプログラム(例えば、アプリケーション)やデータを記憶させておき、情報処理装置100がそこからプログラムやデータを読み出して実行するようにしてもよい。
[まとめ]
 以上説明したように、本使用例では、センサモジュール1を用いることで、上述したように、低コストで且つ容易にアクティブ制御を行えるようになる。センサモジュール1で収録されたモジュール信号を用いて音響放射パワーを推定し、音響放射パワーが最小となるように適応処理を行うことで空間全体を制御することができる。空間全体を制御することができるので、誤差マイクが不要となる。さらに、音響放射パワーが最小となるようにすることで振動による音響放射をなくしているため、効率的にアクティブ制御を行うことができる。
<8.センサモジュールの第2使用例>
 上述した第1使用例では、音響放射パワーを推定して空間全体の音を制御したが、本使用例では、特定位置の誤差信号を推定して特定位置の音を制御する。
[収録フェーズのシステム構成例]
 図21は、収録フェーズにおけるシステム(測定システム9A)の構成例を示している。測定システム9Aは、センサモジュール1、マイクロホン10および測定装置11を有している。センサモジュール1の構成および配置は、第1使用例で説明した通りであり、各センサモジュール1は、モジュール信号を出力する。
 マイクロホン10は、センサモジュール1と同じくアクティブ制御を実施する実際の空間(本例では屋内)に設置される。マイクロホン10は、アクティブ制御における誤差マイクロホンであり、制御点となる屋内の特定の場所に設置され、制御点の音を誤差信号として出力する。各センサモジュール1とマイクロホン10は、それぞれ測定装置11と接続されている。この接続は、有線接続であってもよいし、無線接続であってもよい。
 測定装置11は、コンピュータとして機能する情報処理装置(例えば、パーソナルコンピュータ)で構成されている。測定装置11は、各センサモジュール1から入力されるモジュール信号およびマイクロホン10から入力される誤差信号を収録(例えば、記憶領域に記憶)する。この各モジュール信号と誤差信号は、具体的には、同時に同期がとれた状態で収録される。
[解析フェーズのシステム構成例]
 解析フェーズでは、収録フェーズで用いた測定装置11を使用する。なお、第1使用例で説明したように、測定装置11以外の他の情報処理装置を用いても構わない。図22は、測定装置11の構成例を示す機能ブロック図である。解析フェーズでは、測定装置11は、収録されたモジュール信号および誤差信号を用いて、これら測定信号の解析を行う。具体的には、測定装置11は、この解析を行うセンサ解析部110を有している。
 センサ解析部110は、音圧推定部120と、演算処理部130とを有しており、マイクロホン10の設置位置での音圧推定性能を評価する。音圧推定部120は、マイクロホン10の設置位置の音圧(推定誤差信号)を推定する。これは、上述した非特許文献1におけるヘッドレスト位置の音圧推定に相当する。音圧推定部120は、具体的には、各センサモジュール1のモジュール信号を入力として、マイクロホン10の誤差信号との二乗誤差を最小化するように測定信号を用いて学習する。この学習時は、例えば、線形性を想定して、線形方程式を直接解いてもよいし、ニューラルネットワークによる誤差逆伝搬を用いて機械学習をベースに解いてもよい。このように、音圧推定部120が用いる推定アルゴリズムは、マイクロホン10の設置位置での音圧を推定できるものであればよく、特定のものに限らない。なお、上述した第1使用例における音響放射パワーについても、これらの推定アルゴリズムを用いて推定してもよい。
 音圧推定部120で推定された音圧は、演算処理部130に出力される。演算処理部130は、音圧推定部120から入力される音圧(推定誤差信号)と、マイクロホン10から入力される音圧(誤差信号)との差分を算出し、算出結果を音圧の推定性能(NC-level estimation)として出力する。本解析の結果得られる音圧の推定性能は、アクティブ制御における騒音低減性能に直結する。センサ解析部110は、演算処理部130が出力した推定性能をアクティブ制御の上限性能として出力(例えば、記憶媒体に記憶)する。
 なお、本使用例の解析処理においても、多数のセンサモジュール1を配置して騒音抑制性能を推定した方がアクティブ制御の上限性能をより正確に推定することができるが、センサ数の絞り込みが必要な場合もある。ユーザは、収録の際に選択したセンサ位置から、推定されるアクティブ制御の限界性能についてセンサ解析部110を通して予測できるので、アプリケーションに対応したセンサ位置の絞り込みを実施することができる。
 ここで、上述した機械学習を用いた推定誤差信号の推定例について説明する。図23は、機械学習を用いた場合の音圧推定部120の構成例を示す機能ブロック図である。本例では、音圧推定部120は、限界性能(NC-level estimation)を目的関数として用いて学習することで、誤差マイクロホン(マイクロホン10)の位置の音圧を推定する音圧推定モデルを生成する。
 この場合、音圧推定部120は、例えば、学習用プロセッサで構成することができる。音圧推定部120は、具体的には、DNN処理部121と、学習部122とを有している。DNN処理部121は、例えば、ディープニューラルネットワークで構成される。DNN処理部121は、各センサモジュール1のモジュール信号を入力として推定誤差信号e(マイクロホン10の位置の推定音圧)を生成して学習部122に出力する。学習部122は、推定誤差信号eとマイクロホン10の誤差信号Perrを入力として、例えば、下記の式(3)により、目的関数(NC-level estimation)を最小化するようにバックプロパゲーションで学習する。
Figure JPOXMLDOC01-appb-M000003
 つまり、各センサモジュール1のモジュール信号から推定した推定誤差信号eと、誤差信号perrの差分が最小になるように、ディープニューラルネットワークの重みを修正するように訓練することで、学習済みモデル(音圧推定モデル)を生成する。このようにして得られた音圧推定モデルは、利用可能に保存される。具体的には、DNN処理部121は、学習済み音圧推定モデルを、選択されたセンサモジュール1(センサモジュール群)と関連付けて記憶領域に記憶する。以上によって、各センサモジュール1のモジュール信号から推定誤差信号eの推定が可能となる。
 なお、理想的な限界性能は「推定誤差信号=0」の状態であるから、本システムで達成できる限界性能(NC-level estimation)は、各センサモジュール1のモジュール信号から誤差信号を推定する推定誤差と等価である。よって、推定誤差信号eと誤差信号Perrのエネルギー比は、NC性能の推定値として用いてもよい。
[運用時のシステム構成例]
 運用フェーズでは、実際に制御用のアクチュエータを配置してアクティブ制御処理をリアルタイムにて実施する。図24は、運用フェーズにおけるシステム(アクティブ制御システム9B)の構成例を示している。アクティブ制御システム9Bは、センサモジュール1、アクチュエータ7Aおよびアクティブ制御装置12を有している。つまり、運用フェーズでは収録フェーズで設置していたマイクロホン10を取り除いて問題ない。上述したように、解析フェーズにてセンサモジュール1からマイクロホン10(誤差マイクロホン)の推定性能を最大化するフィルタが音圧推定部120にて既に算出されているためである。
 センサモジュール1は、解析時に使用した解析装置(測定装置11)ではなく、アクティブ制御装置12に接続されている。他の点(例えば、構成、配置等)は、解析時(測定時)と同じである。なお、第1使用例の場合と同様、低遅延が担保されているのであれば、測定装置11を用いてもよい。
 アクチュエータ7Aは、マイクロホン10が設置されていた場所の音を制御するものである。アクチュエータ7Aは、例えば、第1使用例で説明したアクチュエータ7と同じもの(構成、数、配置等)を採用することができる。なお、本使用例においては、特定位置の音を制御できればよいため、アクチュエータ7Aは、振動を付加するデバイスに限らず、直接音響を励起するスピーカ(例えば、透明なスピーカデバイス)などを用いてもよい。この場合、配置場所や数などは、適宜、選択することができる。
 各センサモジュール1と各アクチュエータ7Aは、それぞれアクティブ制御装置12と接続されている。この接続は、アクティブ制御処理に支障がなければよく、有線接続であってもよいし、無線接続であってもよい。
 アクティブ制御装置12は、コンピュータとして機能する情報処理装置である。アクティブ制御装置12は、例えば、アクティブ制御処理に支障がない低遅延が担保された専用装置で構成される。
 図25は、アクティブ制御システム9Bの構成例を示す機能ブロック図である。アクティブ制御システム5Bは、機能ブロックとして音圧推定部91、適応処理部92およびフィルタ部93を有している。例えば、音圧推定部91および適応処理部92は、アクティブ制御装置12が有しており、フィルタ部93は、アクチュエータ7Aを有する制御モジュールが有している。なお、各部を有するモジュールや装置、モジュール間や装置間の接続は、以下の動作(処理)を実行可能な限りにおいて、適宜、変更可能である。
 音圧推定部91は、解析フェーズにおいて「NC-level estimation」を利用して設計された処理ブロックである。つまり、音圧推定部91は、各センサモジュール1のモジュール信号を入力として、推定アルゴリズムを用いて推定誤差信号を推定し出力する。この推定には、例えば、上述した学習済みの音圧推定モデルが使用される。音圧推定部91は、選択されたセンサモジュール1(センサモジュール群)に対応した「音圧推定モデル」を選択し、推定誤差信号を生成する。生成された推定誤差信号は、適応処理部92に出力される。
 適応処理部92は、適応アルゴリズムによる適応処理を行い、制御フィルタの設計を行う。適応処理では、システム全体の最適化がなされるように計算を行う。本使用例では、推定誤差信号が最小化するように動作する。つまり、推定誤差信号のレベルを最小化することで、マイクロホン10が設置されていた場所のアクティブ制御を実現することができる。図示例においては、各アクチュエータ7Aの動作が各々最適化されるようにフィルタ部93の制御フィルタを設計する。適応処理部92は、具体的には、制御フィルタのフィルタ係数をフィルタ部93に出力する。
 フィルタ部93は、適応処理部92により設計された制御フィルタによるフィルタリングを行う。フィルタ部93には、アクティブ制御における参照マイクロホンから出力された参照信号が入力される。第1使用例で説明した通り、この参照マイクロホンは、別途設けてもよいし、センサモジュール1を兼用してもよい。フィルタ部93は、入力された参照信号をフィルタリングして各アクチュエータ7Aの駆動信号をそれぞれ生成する。生成された駆動信号は、対応するアクチュエータ7Aに出力され、各アクチュエータ7Aが駆動する。
[振動制御処理のフロー例]
 図26は、アクティブ制御システム9Bにおけるアクティブ制御処理の流れを示すフローチャートである。アクティブ制御処理では、まず、アクティブ制御装置12が振動および音を収録する(ステップS110)。具体的には、アクティブ制御装置12は、センサモジュール1から出力されるモジュール信号(振動収録信号および音圧収録信号)を収録する。次に、アクティブ制御装置12は、誤差マイクロホン位置(マイクロホン10が設置されていた場所)の音圧を推定する(ステップS120)。具体的には、音圧推定部91がニューラルネットワークなどの推定アルゴリズムを用いて誤差信号を推定する。
 次に、アクティブ制御装置12は、適応処理を実行する(ステップS130)。具体的には、適応処理部92が音圧推定部91で推定された音圧(推定誤差信号)を用いて、推定誤差信号が最小化されるように適応処理を行う。つまり、アクティブ制御における参照信号をフィルタリングする制御フィルタを設計(フィルタ係数を算出)する。
 そして、設計された制御フィルタで参照信号がフィルタリングされ、各アクチュエータ7Aが制御される(ステップS140)。このように各アクチュエータ7Aが制御されることで、マイクロホン10が設置されていた場所の静音化を図ることができる。なお、上述した測定装置11、アクティブ制御装置12などに採用し得る情報処理装置のハードウェア構成例は、第1使用例で説明した通り(図20を参照)である。
[まとめ]
 以上説明したように、本使用例では、センサモジュール1を用いることで、上述したように、低コストで容易にアクティブ制御を行えるようになる。センサモジュール1で収録されたモジュール信号を用いてマイクロホン10が設置されていた場所の音圧を推定し、その音圧が最小となるように適応処理を行うことでマイクロホン10が設置されていた場所の音を制御することができる。音圧の推定には、各センサモジュール1のモジュール信号(振動収録信号と音圧収録信号)を用いるため、正確な推定を行うことができ、アクティブ制御を良好に行うことができる。適応処理において推定した音圧を用いるため、運用フェーズにおいてマイクロホン10(誤差マイクロホン)を設置する必要がなくなり、システムの簡略化を図ることができる。
<9.センサモジュールの第3の使用例>
 センサモジュール1は、第1使用例および第2使用例とは異なるアプリケーションにおいても使用することができる。例えば、騒音のクレームが発生するケースとして、会議室間において隣室からの騒音(会話音等)が聞こえるなどの場合が考えられる。本使用例は、このような場合に対応するものである。
 図27は、隣接する会議室間における騒音伝達の経路例を示す。例えば、図示するように、屋内を仕切る壁が上階の床スラブの下まで設けられている建物構造の場合、天井を介して隣の部屋に漏れる音は殆どないため、壁からの放射エネルギー(振動→音の騒音)が支配的となる。
 図28は、音で壁が振動し騒音になる場合の透過エネルギーについて説明するための図である。発生した音のエネルギーは、一部が壁に吸収され、一部が壁で反射される。そして、残りが壁を抜ける。したがって、この壁を抜けるエネルギーが最小化するように壁の振動を制御するようにすればよい。例えば、この振動制御は、上述した第1使用例および第2使用例のシステムを応用することができる。つまり、対象物体を窓ガラスWに変えて壁にすればよい。また、この場合、センサモジュール1が設けられていない空間側の静音化を図ればよい。具体的には、壁からの音響放射が小さくなるように音響放射パワーを推定したり、音が漏れ込む部屋側の特定位置の音圧を推定するようにしたりすればよい。このように、アクティブ制御を実施する空間は、センサモジュール1が設けられている空間に限らない。以上によって、隣の部屋に対する壁からの音響放射をなくして隣の部屋の静音化を図ることができる。
 図29は、他の隣接する会議室間における騒音伝達の経路例を示す。例えば、図示するように、屋内を仕切る壁が天井までしか設けられておらず、上階の床スラブの下まで設けられていない建物構造の場合、天井を介して隣の部屋に音が漏れることで、この漏れこみによる騒音(音圧)が支配的となる。つまり、界壁がスラブ下まで存在する場合(図27を参照)と、天井下までしかない場合(本図を参照)とで支配的な騒音源が変化する。
 このように、漏れこみによる騒音が支配的な場合は、壁を抜けるエネルギーを制御するより、漏れこみの音圧由来の騒音を制御した方がよい。センサモジュール1は、上述したように、音圧と粒子速度(もしくは振動速度)を分離して抽出することができるため、図29に示すように、センサモジュール1を漏れこみ位置付近(本例では天井付近)に設置して音圧を収録し、図1に示す「音→音」の既知のアクティブ制御(フィードフォワード制御方式およびフィードバック制御方式の何れであってもよい)を行うようにすればよい。つまり、ここでは、詳しい説明を省略するが、音が漏れ込む部屋においてスピーカなどを制御して、収録した音圧を打ち消す音を出力するようにすればよい。従来の加速度センサのみを使用する制御と異なり、センサモジュール1は「音圧+振動速度」を収録することができるというメリットがあるため、このようなことも実現可能である。なお、支配的な音が何れの場合であっても対応できるように、本使用例と他の使用例とを組み合わせて、少なくとも何れか一方を実行するようにしてもよい。
[まとめ]
 以上説明したように、本使用例では、センサモジュール1を用いることで、上述したように、低コストで容易にアクティブ制御を行えるようになる。センサモジュール1は、振動だけでなく音圧も収録することができるため、加速度センサを用いる場合と異なり、音を収録し、収録した音を打ち消すように処理する態様のアクティブ制御についても適用することができる。
 また、上述した処理を行うことで、センサモジュール1が設けられていない空間において、センサモジュール1が設けられている空間の音についてのアクティブ制御を行うことができる。第1使用例を応用した場合には、第1使用例と同様の効果を奏し、第2使用例を応用した場合には、第2使用例と同様の効果を奏することができる。
<10.変形例>
 以上、本開示の実施形態について具体的に説明したが、本開示は、上述した実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様は、任意に選択された一又は複数を、適宜に組み合わせることもできる。また、上述した実施形態の構成、方法、工程、形状、材料および数値等は、本開示の主旨を逸脱しない限り、互いに組み合わせることや入れ替えることが可能である。また、1つのものを2つ以上に分けることも可能であり、一部を省略することも可能である。
 例えば、各使用例において、音響放射する窓ガラスWや壁の振動をアクチュエータ(アクティエータ7,7A等)で制御して騒音を低減させ、さらに、取り切れなかった騒音をアクチュエータ(例えば、スピーカ等)で制御するといったように、2段階でアクティブ制御を行ってもよい。
 また例えば、各使用例においては、騒音を低減させる場合のアクティブ制御について例示したが、これに限らず、空間内を特定の音に制御する態様についても適用することができる。
 また、例えば、アプリケーションについても上述した各使用例のものに限らず、音圧および振動(粒子速度)の少なくとも何れか一方を用いる種々のものに対応することができる。例えば、乗り物内外、コンサート会場内外、高速道路内の音などについてのアクティブ制御に使用してもよい。
 なお、本開示は、以下のような構成も採ることができる。
(1)
 物体に設置され音圧を測定する第1センサ部と、
 前記物体に設置され振動を測定する第2センサ部と、
 前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部と
 を有するセンサモジュール。
(2)
 前記第2センサ部の出力信号を前記物体の振動成分の信号とし、
 前記第1センサ部の出力信号から前記第2センサ部の出力信号を減算した信号を前記音圧成分の信号とする
 (1)に記載のセンサモジュール。
(3)
 前記第1センサ部および前記第2センサ部は、各々により測定される前記物体の振動が所定の誤差範囲内に収まる位置に配置されている
 (1)または(2)に記載のセンサモジュール。
(4)
 前記第1センサ部および前記第2センサ部は、MEMSセンサである
 (1)から(3)のうちの何れかに記載のセンサモジュール。
(5)
 前記第1センサ部は、音孔を有するマイクロホンであり、
 前記第2センサ部は、前記第1センサ部と同じ構造のマイクロホンの音孔を塞いだものである
 (1)から(4)のうちの何れかに記載のセンサモジュール。
(6)
 前記信号処理部は、前記第1センサ部および前記第2センサ部の振動検出特性の差分を吸収するフィルタ処理部を有し、前記フィルタ処理部により前記差分が吸収された出力信号を用いて前記減算を行う
 (2)から(5)のうちの何れかに記載のセンサモジュール。
(7)
 前記物体に対して前記第2センサ部および前記第1センサ部が順に積層して設置される構造を有する
 (1)から(6)のうちの何れかに記載のセンサモジュール。
(8)
 前記信号処理部が出力する前記2つのモジュール信号を記憶するメモリを有する
 (1)から(7)のうちの何れかに記載のセンサモジュール。
(9)
 前記第2センサ部における前記音圧による振動の収録比率に応じて、前記第1センサ部の出力信号および前記第2センサ部の出力信号を補正する補正処理部を有する
 (1)、(3)から(5)、(7)および(8)のうちの何れかに記載のセンサモジュール。
(10)
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 アクティブ制御装置。
(11)
 前記2つのモジュール信号を用いて前記センサモジュールの設置場所の音響インテンシティを算出し、算出した音響インテンシティから前記物体の音響放射パワーを推定し、推定した音響放射パワーを用いて前記音響放射パワーを最小化する適応処理を行う
 (10)に記載のアクティブ制御装置。
(12)
 前記2つのモジュール信号と誤差マイクロホンによって測定された誤差信号とを用いて推定アルゴリズムにより推定誤差信号を推定し、推定した推定誤差信号を用いて前記推定誤差信号を最小化する適応処理を行う
 (10)に記載のアクティブ制御装置。
(13)
 前記2つのモジュール信号のうちの前記音圧成分の信号を用いて前記音圧成分の信号を最小化する適応処理を行う
 (10)に記載のアクティブ制御装置。
(14)
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 アクティブ制御方法。
(15)
 物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
 処理をコンピュータに実行させるプログラム。
 1,1A,1B,1C,1D・・・センサモジュール、2・・・第1センサ部、3・・・第2センサ部、4,4B,4C,4D・・・信号処理部、5B,9B・・・アクティブ制御システム、7,7A・・・アクチュエータ、8、12・・・アクティブ制御装置、24,34・・・音孔、41・・・減算処理部、42,42C・・・フィルタ処理部、43・・・補正処理部、51・・・音響放射パワー推定部、52,92・・・適応処理部、53,93・・・フィルタ部、91・・・音圧推定部、T・・・物体

Claims (15)

  1.  物体に設置され音圧を測定する第1センサ部と、
     前記物体に設置され振動を測定する第2センサ部と、
     前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部と
     を有するセンサモジュール。
  2.  前記第2センサ部の出力信号を前記物体の振動成分の信号とし、
     前記第1センサ部の出力信号から前記第2センサ部の出力信号を減算した信号を前記音圧成分の信号とする
     請求項1に記載のセンサモジュール。
  3.  前記第1センサ部および前記第2センサ部は、各々により測定される前記物体の振動が所定の誤差範囲内に収まる位置に配置されている
     請求項1に記載のセンサモジュール。
  4.  前記第1センサ部および前記第2センサ部は、MEMSセンサである
     請求項1に記載のセンサモジュール。
  5.  前記第1センサ部は、音孔を有するマイクロホンであり、
     前記第2センサ部は、前記第1センサ部と同じ構造のマイクロホンの音孔を塞いだものである
     請求項1に記載のセンサモジュール。
  6.  前記信号処理部は、前記第1センサ部および前記第2センサ部の振動検出特性の差分を吸収するフィルタ処理部を有し、前記フィルタ処理部により前記差分が吸収された出力信号を用いて前記減算を行う
     請求項2に記載のセンサモジュール。
  7.  前記物体に対して前記第2センサ部および前記第1センサ部が順に積層して設置される構造を有する
     請求項1に記載のセンサモジュール。
  8.  前記信号処理部が出力する前記2つのモジュール信号を記憶するメモリを有する
     請求項1に記載のセンサモジュール。
  9.  前記第2センサ部における前記音圧による振動の収録比率に応じて、前記第1センサ部の出力信号および前記第2センサ部の出力信号を補正する補正処理部を有する
     請求項1に記載のセンサモジュール。
  10.  物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
     アクティブ制御装置。
  11.  前記2つのモジュール信号を用いて前記センサモジュールの設置場所の音響インテンシティを算出し、算出した音響インテンシティから前記物体の音響放射パワーを推定し、推定した音響放射パワーを用いて前記音響放射パワーを最小化する適応処理を行う
     請求項10に記載のアクティブ制御装置。
  12.  前記2つのモジュール信号と誤差マイクロホンによって測定された誤差信号とを用いて推定アルゴリズムにより推定誤差信号を推定し、推定した推定誤差信号を用いて前記推定誤差信号を最小化する適応処理を行う
     請求項10に記載のアクティブ制御装置。
  13.  前記2つのモジュール信号のうちの前記音圧成分の信号を用いて前記音圧成分の信号を最小化する適応処理を行う
     請求項10に記載のアクティブ制御装置。
  14.  物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
     アクティブ制御方法。
  15.  物体に設置され音圧を測定する第1センサ部と、前記物体に設置され振動を測定する第2センサ部と、前記第1センサ部の出力信号および前記第2センサ部の出力信号を用いて、前記物体の振動成分の信号と、前記第1センサ部の出力信号から前記物体の振動成分を除去した音圧成分の信号との2つをモジュール信号として出力する信号処理部とを有するセンサモジュールが出力した前記モジュール信号を用いて、アクティブ制御システムにおけるアクチュエータを制御する
     処理をコンピュータに実行させるプログラム。
PCT/JP2022/007158 2021-08-20 2022-02-22 センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム WO2023021735A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023542190A JPWO2023021735A1 (ja) 2021-08-20 2022-02-22

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021134578 2021-08-20
JP2021-134578 2021-08-20

Publications (1)

Publication Number Publication Date
WO2023021735A1 true WO2023021735A1 (ja) 2023-02-23

Family

ID=85240304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007158 WO2023021735A1 (ja) 2021-08-20 2022-02-22 センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム

Country Status (2)

Country Link
JP (1) JPWO2023021735A1 (ja)
WO (1) WO2023021735A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246607A (zh) * 2023-05-09 2023-06-09 宁波胜维德赫华翔汽车镜有限公司 一种汽车驾驶舱噪音控制系统、方法以及汽车

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756580A (ja) * 1993-08-09 1995-03-03 Agency Of Ind Science & Technol 能動制御型遮音壁体
JP2000155048A (ja) * 1998-11-24 2000-06-06 Hitachi Ltd 音源寄与解析方法
JP2011176534A (ja) * 2010-02-24 2011-09-08 Omron Corp 音響センサ
JP2017067763A (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 センサーユニット及び楽器
JP2017161633A (ja) * 2016-03-08 2017-09-14 沖電気工業株式会社 能動騒音制御装置、能動騒音制御プログラム、及び能動騒音制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0756580A (ja) * 1993-08-09 1995-03-03 Agency Of Ind Science & Technol 能動制御型遮音壁体
JP2000155048A (ja) * 1998-11-24 2000-06-06 Hitachi Ltd 音源寄与解析方法
JP2011176534A (ja) * 2010-02-24 2011-09-08 Omron Corp 音響センサ
JP2017067763A (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 センサーユニット及び楽器
JP2017161633A (ja) * 2016-03-08 2017-09-14 沖電気工業株式会社 能動騒音制御装置、能動騒音制御プログラム、及び能動騒音制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246607A (zh) * 2023-05-09 2023-06-09 宁波胜维德赫华翔汽车镜有限公司 一种汽车驾驶舱噪音控制系统、方法以及汽车

Also Published As

Publication number Publication date
JPWO2023021735A1 (ja) 2023-02-23

Similar Documents

Publication Publication Date Title
US10685639B2 (en) Active noise cancellation for defined spaces
US9894429B2 (en) Enhancing audio performance of a consumer electronic device by producing compensation parameters based on the acoustic signature of the device
US10349173B2 (en) Control and protection of loudspeakers
US20180132049A1 (en) Non-linear control of loudspeakers
US20150201294A1 (en) Non-linear control of loudspeakers
WO2023021735A1 (ja) センサモジュール、アクティブ制御装置、アクティブ制御方法およびプログラム
Halim et al. Virtual sensors for active noise control in acoustic–structural coupled enclosures using structural sensing: robust virtual sensor design
US9992592B1 (en) Vacuum testing of audio devices
Rohlfing et al. Ventilation duct with concurrent acoustic feed-forward and decentralised structural feedback active control
EP2701143A1 (en) Model selection of acoustic conditions for active noise control
JPH07210174A (ja) アクティブ遮音方法
US20080197550A1 (en) Method for adapting a vibration isolation system
WO1997003536A1 (en) Loudspeaker circuit with means for monitoring the pressure at the speaker diaphragm, means for monitoring the velocity of the speaker diaphragm and a feedback circuit
Kim et al. Structural-acoustic coupling in a partially opened plate-cavity system: Experimental observation by using nearfield acoustic holography
Narine Active noise cancellation of drone propeller noise through waveform approximation and pitch-shifting
Ku et al. Active control of compressor noise in the machinery room of refrigerators
JP4086743B2 (ja) 騒音制御装置
Goo et al. Modeling a loudspeaker system with a flexible enclosure using finite element and lumped parameter model
JP2022039718A (ja) 音響センサ、音響プログラム、及び音の出力方法
Li et al. Control of loudspeakers using disturbance-observer-type velocity estimation
Jung et al. Active noise reduction system using multi-channel ANC
KR101140321B1 (ko) 능동소음제어 시스템 및 방법
Cho et al. Analysis of sound absorption performance of an electroacoustic absorber using a vented enclosure
KR20160003987A (ko) 능동 소음 제어를 이용한 층간 소음 저감 장치 및 방법
JP7444750B2 (ja) 騒音制御システムおよび騒音制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22858060

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023542190

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE