WO2014073704A1 - 信号処理システムおよび信号処理方法 - Google Patents

信号処理システムおよび信号処理方法 Download PDF

Info

Publication number
WO2014073704A1
WO2014073704A1 PCT/JP2013/080587 JP2013080587W WO2014073704A1 WO 2014073704 A1 WO2014073704 A1 WO 2014073704A1 JP 2013080587 W JP2013080587 W JP 2013080587W WO 2014073704 A1 WO2014073704 A1 WO 2014073704A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
microphone
host device
signal
program
Prior art date
Application number
PCT/JP2013/080587
Other languages
English (en)
French (fr)
Inventor
良 田中
航一郎 佐藤
好史 大泉
井上 貴之
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to KR1020157001712A priority Critical patent/KR101706133B1/ko
Priority to EP19177298.7A priority patent/EP3557880B1/en
Priority to AU2013342412A priority patent/AU2013342412B2/en
Priority to EP13853867.3A priority patent/EP2882202B1/en
Priority to KR1020177002958A priority patent/KR20170017000A/ko
Priority to EP21185333.8A priority patent/EP3917161B1/en
Publication of WO2014073704A1 publication Critical patent/WO2014073704A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/01Noise reduction using microphones having different directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones
    • H04R2410/05Noise reduction with a separate noise microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers

Definitions

  • the present invention relates to a signal processing system including a microphone unit and a host device connected to the microphone unit.
  • an apparatus for storing a plurality of programs has been proposed so that an echo canceling program can be selected according to a communication destination.
  • the device of Patent Document 1 is configured to change the tap length according to the communication destination.
  • the videophone device of Patent Document 2 reads out a different program for each application by switching a dip switch provided in the main body.
  • an object of the present invention is to provide a signal processing system that does not need to store a plurality of programs in advance.
  • the signal processing system of the present invention is a signal processing system including a microphone unit and a host device connected to one of the microphone units.
  • the microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone.
  • the host device includes a non-volatile memory that holds an audio processing program for the microphone unit.
  • the host device transmits the audio processing program from the nonvolatile memory to the temporary storage memory of the microphone unit, and the microphone unit stores the audio processing program in the temporary storage memory.
  • the processing unit performs processing according to a voice processing program temporarily stored in the temporary storage memory, and transmits the processed voice to the host device.
  • the terminal does not have a built-in operation program in advance, and receives the program from the host device and temporarily stores it in the temporary storage memory before performing the operation. Therefore, it is not necessary to store a large number of programs in advance on the microphone unit side.
  • the program rewriting process for each microphone unit is unnecessary, and a new function can be realized only by changing the program stored in the nonvolatile memory on the host device side. it can.
  • the same program may be executed by all the microphone units, but it is also possible to execute individual programs for each microphone unit.
  • the host device can change the program to be transmitted according to the number of connected microphone units.
  • the gain of the microphone unit is set high.
  • the gain of each microphone unit is set relatively low.
  • each microphone unit includes a plurality of microphones, it is possible to execute a program for causing a microphone array to function.
  • the host device divides the audio processing program into constant unit bit data, creates serial data in which the unit bit data is arranged in the order received by each microphone unit, and transmits the serial data to each microphone unit.
  • Each microphone unit extracts and receives unit bit data that it should receive from the serial data, temporarily stores the extracted unit bit data, and the processing unit responds to an audio processing program that combines the unit bit data.
  • a mode of performing processing is also possible. Thereby, even if the number of microphone units increases and the number of programs to be transmitted increases, the number of signal lines between the microphone units does not increase.
  • each microphone unit divides the processed sound into fixed unit bit data and transmits it to a microphone unit connected to a higher level, and each microphone unit cooperates to create serial data for transmission, and A mode of transmission to the apparatus is also possible. Thereby, even if the number of microphone units increases and the number of channels increases, the number of signal lines between the microphone units does not increase.
  • the microphone unit includes a plurality of microphones having different sound collection directions and a sound level determination unit.
  • the host device includes a speaker, and emits a test sound wave from the speaker toward each microphone unit.
  • Each microphone unit determines the level of the test sound wave input to the plurality of microphones, divides the level data as a determination result into fixed unit bit data, and transmits the unit bit data to a higher-level microphone unit. It is also possible to adopt a mode in which the microphone units cooperate to create level determination serial data. Thereby, the host device can grasp the level of echo from the speaker to the microphone of each microphone unit.
  • the speech processing program includes an echo cancellation program for realizing an echo canceller in which filter coefficients are updated.
  • the echo cancellation program includes a filter coefficient setting unit that determines the number of filter coefficients. Based on the level data received from each microphone unit, the number of filter coefficients of each microphone unit is changed, a change parameter for changing the number of filter coefficients is determined for each microphone unit, and the change parameter is set to a constant unit bit. It is also possible to divide into data, create change parameter serial data in which the unit bit data is arranged in the order received by each microphone unit, and transmit the change parameter serial data to each microphone unit. .
  • the number of filter coefficients (number of taps) is increased for a microphone unit that is close to the host device and has a high echo level, or the number of taps is set for a microphone unit that is far from the host device and has a low echo level. Can be shortened.
  • the audio processing program is the echo cancellation program or a noise cancellation program that removes noise components, and the host device transmits a program to be transmitted from the level data to each microphone unit of the echo cancellation program or the noise cancellation program. It is also possible to adopt a mode defined in any one of them.
  • an echo canceller can be executed for a microphone unit that is close to the host device and has a high echo level
  • a noise canceller can be executed for a microphone unit that is far from the host device and has a low echo level.
  • the signal processing method of the present invention is a signal processing method for a signal processing device including a plurality of microphone units connected in series and a host device connected to one of the plurality of microphone units.
  • Each microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone.
  • the host device includes a non-volatile memory that holds an audio processing program for the microphone unit.
  • the audio processing program when the activation state of the host device is detected, the audio processing program is read from the nonvolatile memory, the audio processing program is transmitted from the host device to the microphone units, and the audio processing program is transmitted. Temporarily storing in the temporary storage memory of each microphone unit, performing processing according to the audio processing program temporarily stored in the temporary storage memory, and transmitting the processed audio to the host device.
  • the present invention it is not necessary to store a plurality of programs in advance, and it is not necessary to rewrite the terminal program when adding a new function.
  • FIG. 2A is a block diagram showing the configuration of the host device
  • FIG. 2B is a block diagram showing the configuration of the microphone unit
  • 3A is a diagram illustrating a configuration of an echo canceller
  • FIG. 3B is a diagram illustrating a configuration of a noise canceller.
  • 5A is a diagram showing another connection mode of the signal processing system of the present invention
  • FIG. 5B is an external perspective view of the host device
  • FIG. 5C is a diagram of the microphone unit. It is an external perspective view.
  • FIG. 6A is a schematic block diagram showing signal connection
  • FIG. 6A is a schematic block diagram showing signal connection
  • FIG. 6B is a schematic block diagram showing the configuration of the microphone unit. It is the schematic block diagram which showed the structure of the signal processing apparatus in the case of converting serial data and parallel data.
  • FIG. 8A is a conceptual diagram showing conversion between serial data and parallel data
  • FIG. 8B is a diagram showing a signal flow of the microphone unit. It is a figure which shows the flow of a signal in the case of transmitting a signal from each microphone unit to a host device. It is a figure which shows the flow of a signal in the case of transmitting a separate audio
  • FIG. 23A and FIG. 23B are diagrams showing a modified example of the arrangement of the host device and the slave unit.
  • FIG. 1 is a diagram showing a connection mode of the signal processing system of the present invention.
  • the signal processing system includes a host device 1 and a plurality (five in this example) of microphone units 2A to 2E connected to the host device 1, respectively.
  • the microphone units 2A to 2E are arranged in a large conference room, for example.
  • the host device 1 receives an audio signal from each microphone unit and performs various processes. For example, the audio signal of each microphone unit is individually transmitted to another host device connected via the network.
  • FIG. 2A is a block diagram showing the configuration of the host device 1
  • FIG. 2B is a block diagram showing the configuration of the microphone unit 2A.
  • the hardware configuration of each microphone unit is the same.
  • FIG. 2B the configuration and function of the microphone unit 2A will be described as a representative.
  • the configuration of A / D conversion is omitted, and the various signals are assumed to be digital signals unless otherwise specified.
  • the host apparatus 1 includes a communication interface (I / F) 11, a CPU 12, a RAM 13, a nonvolatile memory 14, and a speaker 102.
  • the CPU 12 performs various operations by reading the application program from the nonvolatile memory 14 and temporarily storing it in the RAM 13. For example, as described above, an audio signal is input from each microphone unit, and each audio signal is individually transmitted to another host device connected via a network.
  • the non-volatile memory 14 includes a flash memory, a hard disk drive (HDD), and the like.
  • the nonvolatile memory 14 stores a sound processing program (hereinafter referred to as a sound signal processing program in the present embodiment).
  • the audio signal processing program is an operation program for each microphone unit.
  • programs such as a program for realizing an echo canceller function, a program for realizing a noise canceller function, and a program for realizing gain control.
  • the CPU 12 reads a predetermined audio signal processing program from the nonvolatile memory 14 and transmits it to each microphone unit via the communication I / F 11. Note that the audio signal processing program may be incorporated in the application program.
  • the microphone unit 2A includes a communication I / F 21A, a DSP 22A, and a microphone (hereinafter also referred to as a microphone) 25A.
  • the DSP 22A includes a volatile memory 23A and an audio signal processing unit 24A.
  • the volatile memory 23A is incorporated in the DSP 22A.
  • the volatile memory 23A may be provided separately from the DSP 22A.
  • the audio signal processing unit 24A corresponds to the processing unit of the present invention, and has a function of outputting the sound collected by the microphone 25A as a digital audio signal.
  • the audio signal processing program transmitted from the host device 1 is temporarily stored in the volatile memory 23A via the communication I / F 21A.
  • the audio signal processing unit 24A performs processing according to the audio signal processing program temporarily stored in the volatile memory 23A, and transmits a digital audio signal related to the audio collected by the microphone 25A to the host device 1. For example, when an echo canceller program is transmitted from the host device 1, the echo component is removed from the sound collected by the microphone 25 ⁇ / b> A and then transmitted to the host device 1. As described above, when the echo canceller program is executed in each microphone unit, it is preferable when the host device 1 executes an application program for communication conference.
  • the audio signal processing program temporarily stored in the volatile memory 23A is deleted when the power supply to the microphone unit 2A is cut off.
  • the microphone unit always operates after receiving an audio signal processing program for operation from the host device 1 every time it is activated. If the microphone unit 2A is supplied with power (via bus power) via the communication I / F 21A, it receives an operation program from the host device 1 only when connected to the host device 1, Will perform the action.
  • the audio signal processing program for echo canceller is executed, and when the application program for recording is executed, the audio signal processing of noise canceller is executed.
  • the program is executed.
  • a loudspeaker application program in order to output the sound collected by each microphone unit from the speaker 102 of the host device 1, an aspect in which a howling canceler audio signal processing program is executed. Is also possible. Note that the speaker 102 is not necessary when the host device 1 executes an application program for recording.
  • FIG. 3A is a block diagram showing a configuration when the audio signal processing unit 24A executes an echo canceller program.
  • the audio signal processing unit 24A includes a filter coefficient setting unit 241, an adaptive filter 242, and an adding unit 243.
  • the filter coefficient setting unit 241 estimates the transfer function of the acoustic transmission system (acoustic propagation path from the speaker 102 of the host device 1 to the microphone of each microphone unit), and sets the filter coefficient of the adaptive filter 242 using the estimated transfer function. .
  • the adaptive filter 242 includes a digital filter such as an FIR filter.
  • the adaptive filter 242 receives the sound emission signal FE input from the host device 1 to the speaker 102 of the host device 1, performs filter processing with the filter coefficient set in the filter coefficient setting unit 241, and performs pseudo-regression sound signal Is generated.
  • the adaptive filter 242 outputs the generated pseudo regression sound signal to the adding unit 243.
  • the adding unit 243 outputs a sound collection signal NE1 'obtained by subtracting the pseudo regression sound signal input from the adaptive filter 242 from the sound collection signal NE1 of the microphone 25A.
  • the filter coefficient setting unit 241 updates the filter coefficient using an adaptive algorithm such as an LMS algorithm based on the sound collection signal NE1 'and the sound emission signal FE output from the addition unit 243. Then, the filter coefficient setting unit 241 sets the updated filter coefficient in the adaptive filter 242.
  • an adaptive algorithm such as an LMS algorithm based on the sound collection signal NE1 'and the sound emission signal FE output from the addition unit 243. Then, the filter coefficient setting unit 241 sets the updated filter coefficient in the adaptive filter 242.
  • FIG. 3B is a block diagram showing a configuration when the audio signal processing unit 24A executes a noise canceller program.
  • the audio signal processing unit 24A includes an FFT processing unit 245, a noise removal unit 246, an estimation unit 247, and an IFFT processing unit 248.
  • the FFT processing unit 245 converts the collected sound signal NE'T into the frequency spectrum NE'N.
  • the noise removing unit 246 removes the noise component N′N included in the frequency spectrum NE′N.
  • the noise component N′N is estimated by the estimation unit 247 based on the frequency spectrum NE′N.
  • the estimation unit 247 performs a process of estimating a noise component N′N included in the frequency spectrum NE′N input from the FFT processing unit 245.
  • the estimation unit 247 sequentially acquires and temporarily stores a frequency spectrum (hereinafter referred to as a speech spectrum) S (NE′N) at a certain sample timing of the speech signal NE′N.
  • a speech spectrum hereinafter referred to as a speech spectrum
  • the estimation unit 247 Based on the acquired and stored multiple times of the speech spectrum S (NE′N), the estimation unit 247 has a frequency spectrum at a certain sample timing of the noise component N′N (hereinafter referred to as a noise spectrum) S (N 'N) is estimated. Then, the estimation unit 247 outputs the estimated noise spectrum S (N′N) to the noise removal unit 246.
  • the noise spectrum S (N′N (T)) can be expressed by the following formula 1.
  • noise components such as background noise can be estimated by estimating the noise spectrum S (N′N (T)) based on the speech spectrum.
  • the estimation unit 247 performs noise spectrum estimation processing only when the level of the collected sound signal collected by the microphone 25A is low (silent state).
  • the noise removing unit 246 removes the noise component N′N from the frequency spectrum NE′N input from the FFT processing unit 245 and outputs the frequency spectrum CO′N after the noise removal to the IFFT processing unit 248. Specifically, the noise removal unit 246 calculates a signal level ratio between the voice spectrum S (NE′N) and the noise spectrum S (N′N) input from the estimation unit 247. When the calculated signal level ratio is equal to or greater than the threshold, the noise removal unit 246 outputs the speech spectrum S (NE′N) linearly. Further, when the calculated signal level ratio is less than the threshold value, the noise removing unit 246 outputs the speech spectrum S (NE′N) nonlinearly.
  • the IFFT processing unit 248 outputs a sound signal CO′T generated by inversely transforming the frequency spectrum CO′N after removing the noise component N′N to the time axis.
  • the audio signal processing program can realize an echo suppressor program as shown in FIG.
  • the echo suppressor removes an echo component that could not be removed by the echo canceller in the subsequent stage of the echo canceller shown in FIG.
  • the echo suppressor includes an FFT processing unit 121, an echo removal unit 122, an FFT processing unit 123, a progress calculation unit 124, an echo generation unit 125, an FFT processing unit 126, and an IFFT processing unit 127.
  • the FFT processing unit 121 converts the collected sound signal NE1 'output from the echo canceller into a frequency spectrum. This frequency spectrum is output to the echo removing unit 122 and the progress degree calculating unit 124.
  • the echo removing unit 122 removes residual echo components (echo components that could not be removed by the echo canceller) included in the input frequency spectrum. The residual echo component is generated by the echo generator 125.
  • the echo generation unit 125 generates a residual echo component based on the frequency spectrum of the pseudo regression sound signal input from the FFT processing unit 126.
  • the residual echo component is obtained by adding the residual echo component estimated in the past and the frequency spectrum of the input pseudo-regression sound signal multiplied by a predetermined coefficient.
  • the predetermined coefficient is set by the progress calculation unit 124.
  • the progress calculation unit 124 includes a sound collection signal NE1 input from the FFT processing unit 123 (a sound collection signal before the echo component is removed by the previous echo canceller) and a sound collection signal input from the FFT processing unit 121.
  • the power ratio with NE1 ′ (the collected sound signal after the echo component is removed by the preceding echo canceller) is obtained.
  • the progress degree calculation unit 124 outputs a predetermined coefficient based on the power ratio. For example, when learning of the adaptive filter 242 is not performed at all, the predetermined coefficient is set to 1, and when learning of the adaptive filter 242 progresses, the predetermined coefficient is set to 0 and learning of the adaptive filter 242 is performed. The predetermined coefficient is reduced as the progress proceeds, and the residual echo component is reduced. Then, the echo removal unit 122 removes the residual echo component calculated by the echo generation unit 125.
  • the IFFT processing unit 127 performs inverse conversion on the time axis and outputs the frequency spectrum after removing the echo component.
  • the echo canceller program, the noise canceller program, and the echo suppressor program can be executed by the host device 1.
  • the host device can execute the echo suppressor program while each microphone unit executes the echo canceller program.
  • the audio signal processing program to be executed can be changed according to the number of connected microphone units. For example, when the number of connected microphone units is one, the gain of the microphone unit is set high, and when the number of microphone units is plural, the gain of each microphone unit is set relatively low.
  • each microphone unit includes a plurality of microphones
  • different parameters gain, delay amount, etc.
  • different parameters can be set for each microphone unit according to the order (position) connected to the host device 1.
  • the microphone unit of the present embodiment can realize various functions according to the use of the host device 1. Even in the case of realizing such various functions, the microphone unit 2A does not need to store a program in advance and does not require a non-volatile memory (or a small capacity).
  • the volatile memory 23A that is a RAM is shown as an example of the temporary storage memory.
  • the volatile memory 23A is volatile.
  • a non-volatile memory such as a flash memory may be used.
  • the DSP 22A erases the contents of the flash memory.
  • a capacitor or the like is provided for temporarily securing power until the DSP 22A erases the contents of the flash memory when the power supply to the microphone unit 2A is cut off.
  • the microphone units 2A to 2E all have the same hardware, the user does not need to be aware of which microphone unit is connected to which position.
  • a microphone unit for example, the microphone unit 2A
  • a microphone unit for example, the microphone unit 2E
  • the echo canceller program is always executed on the microphone unit 2E closest to the host device 1
  • the noise canceller program is executed on the microphone unit 2A farthest from the host device 1.
  • each microphone unit may be in a star connection mode that is directly connected to the host device 1, but each microphone unit is connected to each other as shown in FIG. May be connected in series, and any one of the microphone units (microphone unit 2A) may be connected in a cascade manner to the host device 1.
  • the host device 1 is connected to the microphone unit 2A via the cable 331.
  • the microphone unit 2A and the microphone unit 2B are connected via a cable 341.
  • the microphone unit 2B and the microphone unit 2C are connected via a cable 351.
  • the microphone unit 2C and the microphone unit 2D are connected via a cable 361.
  • the microphone unit 2D and the microphone unit 2E are connected via a cable 371.
  • FIG. 5B is an external perspective view of the host device 1
  • FIG. 5C is an external perspective view of the microphone unit 2A.
  • the microphone unit 2A is illustrated and described as a representative, but all the microphone units have the same appearance and configuration.
  • the host device 1 has a rectangular parallelepiped housing 101A, a speaker 102 is provided on the side surface (front surface) of the housing 101A, and communication is performed on the side surface (rear surface) of the housing 101A.
  • An I / F 11 is provided.
  • the microphone unit 2A has a rectangular parallelepiped housing 201A, a microphone 25A is provided on the side surface of the housing 201A, and a first input / output terminal 33A and a second input / output terminal 34A are provided on the front surface of the housing 201A.
  • FIG. 5C shows an example in which the microphone 25A has three sound collection directions on the back surface, the right side surface, and the left side surface.
  • the sound collection direction is not limited to this example.
  • the three microphones 25 ⁇ / b> A may be arranged in a 120-degree interval in a plan view and collected in the circumferential direction.
  • the microphone unit 2 ⁇ / b> A has a cable 331 connected to the first input / output terminal 33 ⁇ / b> A, and is connected to the communication I / F 11 of the host device 1 via the cable 331.
  • the microphone unit 2A is connected to the second input / output terminal 34A with a cable 341, and is connected to the first input / output terminal 33B of the microphone unit 2B via the cable 341.
  • the shapes of the housing 101A and the housing 201A are not limited to the rectangular parallelepiped shape.
  • the housing 101A of the host device 1 may be an elliptic cylinder
  • the housing 201A of the microphone unit 2A may be a columnar shape.
  • the signal processing system according to the present embodiment has an appearance of a cascade connection as shown in FIG. 5A, but can electrically realize a star connection. Hereinafter, this point will be described.
  • FIG. 6A is a schematic block diagram showing signal connection.
  • the hardware configuration of each microphone unit is the same. First, the configuration and function of the microphone unit 2A will be described with reference to FIG. 6B as a representative.
  • the microphone unit 2A includes an FPGA 31A, a first input / output terminal 33A, and a second input / output terminal 34A in addition to the DSP 22A shown in FIG.
  • the FPGA 31A implements a physical circuit as shown in FIG. That is, the FPGA 31A physically connects the first channel of the first input / output terminal 33A and the DSP 22A.
  • the FPGA 31A physically connects one of the sub-channels other than the first channel of the first input / output terminal 33A to another channel adjacent to the channel corresponding to the sub-channel of the second input / output terminal 34A.
  • the second channel of the first input / output terminal 33A and the first channel of the second input / output terminal 34A are connected, and the third channel of the first input / output terminal 33A and the second channel of the second input / output terminal 34A are connected.
  • 2 channels are connected, the fourth channel of the first input / output terminal 33A is connected to the third channel of the second input / output terminal 34A, and the fifth channel of the first input / output terminal 33A is connected to the second channel.
  • the fourth channel of the input / output terminal 34A is connected.
  • the fifth channel of the second input / output terminal 34A is not connected anywhere.
  • the signal (ch. 1) of the first channel of the host device 1 is input to the DSP 22A of the microphone unit 2A.
  • the signal (ch. 2) of the second channel of the host device 1 is transmitted from the second channel of the first input / output terminal 33A of the microphone unit 2A to the first of the microphone unit 2B.
  • the signal is input to the first channel of the input / output terminal 33B and input to the DSP 22B.
  • the signal (ch. 3) of the third channel passes through the second channel of the first input / output terminal 33B of the microphone unit 2B from the third channel of the first input / output terminal 33A, and then the first input / output terminal 33C of the microphone unit 2C. To the first channel and to the DSP 22C.
  • the fourth channel audio signal (ch.4) is transmitted from the fourth channel of the first input / output terminal 33A to the third channel of the first input / output terminal 33B of the microphone unit 2B and the second channel of the microphone unit 2C.
  • the signal is input to the first channel of the first input / output terminal 33D of the microphone unit 2D through the second channel of the first input / output terminal 33C and input to the DSP 22D.
  • the audio signal (ch. 5) of the fifth channel is transmitted from the fifth channel of the first input / output terminal 33A to the fourth channel of the first input / output terminal 33B of the microphone unit 2B and from the first input / output terminal 33C of the microphone unit 2C.
  • the signal is input to the first channel of the first input / output terminal 33E of the microphone unit 2E via the third channel and the second channel of the first input / output terminal 33D of the microphone unit 2D, and then input to the DSP 22E.
  • the microphone units connected in series via the cable can be detachable, and there is no need to consider the connection order.
  • the connection position between the microphone unit 2A and the microphone unit 2E is temporarily assumed. A description will be given of a program transmitted to each microphone unit when the two are replaced.
  • the first input / output terminal 33E of the microphone unit 2E is connected to the communication I / F 11 of the host device 1 via the cable 331, and the second input / output terminal 34E is connected to the first input / output terminal 33E of the microphone unit 2B via the cable 341. 1 is connected to the input / output terminal 33B.
  • the first input / output terminal 33A of the microphone unit 2A is connected to the second input / output terminal 34D of the microphone unit 2D via the cable 371.
  • the echo canceller program is transmitted to the microphone unit 2E, and the noise canceller program is transmitted to the microphone unit 2A.
  • the echo canceller program is always executed on the microphone unit closest to the host apparatus 1, and the noise canceller program is executed on the microphone unit farthest from the host apparatus 1.
  • the host device 1 recognizes the connection order of each microphone unit, and transmits an echo canceller program to the microphone unit within a certain distance from the own device based on the connection order and the cable length. It is also possible to send a noise canceller program to the microphone unit beyond a certain distance. For example, when a dedicated cable is used, information regarding the cable length is stored in advance in the host device. It also sets identification information for each cable, stores identification information and information about the length of the cable, and receives the identification information from each used cable, thereby reducing the length of each used cable. It is also possible to know.
  • the echo canceller close to the host device 1 can increase the number of filter coefficients (the number of taps) to cope with echoes with long reverberation.
  • the number of filter coefficients the number of taps
  • a program that performs non-linear processing (for example, the above-described echo suppressor program) is sent to the microphone unit within a certain distance from the device itself, and there are echo components that cannot be removed by the echo canceller. Even if it occurs, it is possible to adopt a mode in which the echo component is removed.
  • the microphone unit is described as selecting either the noise canceller or the echo canceller.
  • both the noise canceller and the echo canceller programs are transmitted to the microphone unit close to the host device 1 and the host Only the noise canceller program may be transmitted to the microphone unit far from the apparatus 1.
  • each microphone unit when each microphone unit outputs an audio signal to the host device 1, the audio signal of each channel is output individually from each microphone unit. can do.
  • a physical circuit is realized by an FPGA
  • the present invention is not limited to an FPGA as long as the above-described physical circuit can be realized.
  • a dedicated IC may be prepared in advance, or wiring may be provided in advance.
  • FIG. 7 is a schematic block diagram showing the configuration of the microphone unit when converting serial data and parallel data.
  • the microphone unit 2 ⁇ / b> A is illustrated and described as a representative, but all the microphone units have the same configuration and function.
  • the microphone unit 2A includes an FPGA 51A instead of the FPGA 31A shown in FIGS. 6 (A) and 6 (B).
  • the FPGA 51A includes a physical circuit 501A corresponding to the above-described FPGA 31A, a first conversion unit 502A and a second conversion unit 503A that convert serial data and parallel data.
  • the first input / output terminal 33A and the second input / output terminal 34A input / output a plurality of channels of audio signals as serial data.
  • the DSP 22A outputs the audio signal of the first channel to the physical circuit 501A as parallel data.
  • the physical circuit 501A outputs the parallel data of the first channel output from the DSP 22A to the first conversion unit 502A. Further, the physical circuit 501A outputs the second channel parallel data (corresponding to the output signal of the DSP 22B) and the third channel parallel data (corresponding to the output signal of the DSP 22C) output from the second conversion unit 503A. The fourth channel parallel data (corresponding to the output signal of the DSP 22D) and the fifth channel parallel data (corresponding to the output signal of the DSP 22E) are output to the first converter 502A.
  • FIG. 8A is a conceptual diagram showing conversion between serial data and parallel data.
  • the parallel data includes a bit clock (BCK) for synchronization, a word clock (WCK), and signals SDO0 to SDO4 for each channel (5 channels).
  • BCK bit clock
  • WCK word clock
  • Serial data consists of a sync signal and a data part.
  • the data portion includes a word clock, signals SDO0 to SDO4 of each channel (5 channels), and an error correction code CRC.
  • the first converter 502A receives parallel data as shown in the upper column of FIG. 8A from the physical circuit 501A.
  • the first conversion unit 502A converts the parallel data into serial data as shown in the lower column of FIG.
  • serial data is output to the first input / output terminal 33 ⁇ / b> A and input to the host device 1.
  • the host device 1 processes the audio signal of each channel based on the input serial data.
  • the second conversion unit 503A receives serial data as shown in the lower column of FIG. 8A from the first conversion unit 502B of the microphone unit 2B, and converts the parallel data as shown in the upper column of FIG. 8A. The data is converted and output to the physical circuit 501A.
  • the SDO0 signal output from the second conversion unit 503A is output to the first conversion unit 502A as the SDO1 signal by the physical circuit 501A, and the second conversion unit 503A outputs the signal.
  • the SDO1 signal to be output is output to the first conversion unit 502A as the SDO2 signal
  • the SDO2 signal output from the second conversion unit 503A is output to the first conversion unit 502A as the SDO3 signal
  • the second conversion unit 503A The signal of SDO3 output from is output to the first conversion unit 502A as the signal of SDO4.
  • the first channel audio signal (ch. 1) output from the DSP 22A is input to the host device 1 as the first channel audio signal and output from the DSP 22B.
  • the second channel audio signal (ch. 2) is input to the host device 1 as the second channel audio signal
  • the third channel audio signal (ch. 3) output from the DSP 22C is transmitted to the host device 1 by the third channel.
  • the fourth channel audio signal (ch. 4) input as the channel audio signal and output from the DSP 22D is input to the host device 1 as the fourth channel audio signal and output from the DSP 22E of the microphone unit 2E.
  • Audio signal (ch.5) is input to the host device 1 as a fifth channel audio signal.
  • the DSP 22E of the microphone unit 2E processes the sound collected by the microphone 25E of its own device by the sound signal processing unit 24A, and divides the processed sound into unit bit data (signal SDO4) as a physical circuit 501E. Output to.
  • the physical circuit 501E outputs the signal SDO4 to the first conversion unit 502E as parallel data having the first channel signal.
  • the first conversion unit 502E converts the parallel data into serial data.
  • the serial data includes the first unit bit data (signal SDO4 in the figure) and bit data 0 (indicated by a hyphen “-” in the figure) in order from the word clock. And an error correction code CRC.
  • Such serial data is output from the first input / output terminal 33E and input to the microphone unit 2D.
  • the second conversion unit 503D of the microphone unit 2D converts the input serial data into parallel data and outputs the parallel data to the physical circuit 501D. Then, the physical circuit 501D outputs the signal SDO4 included in the parallel data to the first conversion unit 502D as the second channel signal and the signal SDO3 input from the DSP 22D as the first channel signal. As shown in the third column from the top in FIG. 9, the first conversion unit 502D inserts the signal SDO3 as the first unit bit data following the word clock, and converts the signal SDO4 into serial data having the second unit bit data. To do. In addition, the first conversion unit 502D newly generates an error correction code CRC in this case (when the signal SDO3 is the first and the signal SDO4 is the second), and assigns and outputs the error correction code CRC to the serial data.
  • CRC error correction code
  • Such serial data is output from the first input / output terminal 33D and input to the microphone unit 2C. Similar processing is performed in the microphone unit 2C. As a result, the microphone unit 2C inserts the signal SDO2 as the first unit bit data following the word clock, the signal SDO3 as the second unit bit data, the signal SDO4 as the third unit bit data, and new error correction.
  • the serial data with the code CRC is output.
  • the serial data is input to the microphone unit 2B. Similar processing is performed in the microphone unit 2B.
  • the microphone unit 2B inserts the signal SDO1 as the first unit bit data following the word clock, the signal SDO2 as the second unit bit data, the signal SDO3 as the third unit bit data, and the signal SDO4 as 4 Serial data with a new error correction code CRC is output as the first unit bit data.
  • the serial data is input to the microphone unit 2A. Similar processing is performed in the microphone unit 2A. As a result, the microphone unit 2A inserts the signal SDO0 as the first unit bit data following the word clock, the signal SDO1 as the second unit bit data, the signal SDO2 as the third unit bit data, and the signal SDO3 as 4 Serial data with a new error correction code CRC is output with the signal bit SDO4 as the fifth unit bit data. Then, the serial data is input to the host device 1.
  • the first channel audio signal (ch. 1) output from the DSP 22A is input to the host device 1 as the first channel audio signal, and the DSP 22B
  • the second channel audio signal (ch. 2) output from the second channel is input to the host device 1 as the second channel audio signal
  • the third channel audio signal (ch. 3) output from the DSP 22C is the host device 1.
  • the fourth channel audio signal (ch. 4) input as the third channel audio signal and output from the DSP 22D is input to the host device 1 as the fourth channel audio signal and output from the DSP 22E of the microphone unit 2E.
  • the fifth channel audio signal (ch. 5) is input to the host device 1 as the fifth channel audio signal.
  • each microphone unit divides the audio signal processed by each DSP into fixed unit bit data and transmits it to the microphone unit connected to the higher level, and each microphone unit cooperates to create serial data for transmission. Will do.
  • FIG. 10 is a diagram showing a signal flow when the host apparatus 1 transmits an individual audio signal processing program to each microphone unit. In this case, processing reverse to the signal flow shown in FIG. 9 is performed.
  • the host device 1 reads out the audio signal processing program to be transmitted to each microphone unit from the nonvolatile memory 14 by dividing the audio signal processing program into constant unit bit data, and reads serial data in which the unit bit data is arranged in the order received by each microphone unit. create.
  • the serial data includes the signal SDO0 as the first unit bit data following the word clock, the signal SDO1 as the second unit bit data, the signal SDO2 as the third unit bit data, the signal SDO3 as the fourth unit bit data, and the fifth unit bit data.
  • a signal SDO4 and an error correction code CRC are given as unit bit data.
  • the serial data is first input to the microphone unit 2A.
  • the signal SDO0 which is the first unit bit data is extracted from the serial data, and the extracted unit bit data is input to the DSP 22A and temporarily stored in the volatile memory 23A.
  • the microphone unit 2A has a signal SDO1, a signal SDO2 as the second unit bit data, a signal SDO3 as the third unit bit data, a signal SDO4 as the fourth unit bit data, And serial data to which a new error correction code CRC is added is output.
  • the fifth unit bit data is set to 0 (hyphen “ ⁇ ” in the figure).
  • the serial data is input to the microphone unit 2B.
  • the signal SDO1 which is the first unit bit data, is input to the DSP 22B.
  • the microphone unit 2B gives the signal SDO2 as the first unit bit data following the word clock, the signal SDO3 as the second unit bit data, the signal SDO4 as the third unit bit data, and a new error correction code CRC.
  • the serial data is input to the microphone unit 2C.
  • the signal SDO2 which is the first unit bit data
  • the DSP 22C receives the signal SDO3 as the first unit bit data following the word clock
  • the signal SDO4 as the second unit bit data
  • the serial data to which the new error correction code CRC is added is added.
  • the serial data is input to the microphone unit 2D.
  • the signal SDO3 that is the first unit bit data is input to the DSP 22D.
  • the microphone unit 2D outputs the signal SDO4 and serial data to which a new error correction code CRC is added as the first unit bit data following the word clock.
  • the serial data is input to the microphone unit 2E, and the signal SDO4, which is the first unit bit data, is input to the DSP 22E.
  • the first unit bit data (signal SDO0) is always transmitted to the microphone unit connected to the host apparatus 1, and the second unit bit data (signal SDO0) is always transmitted to the second microphone unit.
  • the signal SDO1) is transmitted
  • the third unit bit data (signal SDO2) is always transmitted to the third connected microphone unit
  • the fourth unit bit is always transmitted to the fourth connected microphone unit.
  • Data (signal SDO3) is transmitted
  • the fifth unit bit data (signal SDO4) is always transmitted to the fifth connected microphone unit.
  • Each microphone unit performs processing according to an audio signal processing program that combines unit bit data. Even in this case, the microphone units connected in series via the cable can be detachable, and there is no need to consider the order of connection. For example, when an echo canceller program is transmitted to the microphone unit 2A closest to the host device 1 and a noise canceller program is transmitted to the microphone unit 2E farthest from the host device 1, the connection position between the microphone unit 2A and the microphone unit 2E is temporarily assumed. Are replaced, the echo canceller program is transmitted to the microphone unit 2E, and the noise canceller program is transmitted to the microphone unit 2A. As described above, even if the connection order is changed, the echo canceller program is always executed on the microphone unit closest to the host apparatus 1, and the noise canceller program is executed on the microphone unit farthest from the host apparatus 1.
  • the operation at the time of starting the host device 1 and each microphone unit will be described.
  • the CPU 12 of the host device 1 reads a predetermined audio signal processing program from the nonvolatile memory 14 (S12), via the communication I / F 11 It transmits to each microphone unit (S13).
  • the CPU 12 of the host device 1 divides the audio signal processing program into fixed unit bit data as described above, creates serial data in which the unit bit data is arranged in the order received by each microphone unit, and sends it to the microphone unit. Send.
  • Each microphone unit receives the audio signal processing program transmitted from the host device 1 (S21) and temporarily stores it (S22). At this time, each microphone unit extracts and receives the unit bit data to be received from the serial data, and temporarily stores the extracted unit bit data. The microphone unit combines the temporarily stored unit bit data and performs processing according to the combined audio signal processing program (S23). Each microphone unit then transmits a digital audio signal related to the collected audio to the host device 1 (S24). At this time, the digital audio signal processed by the audio signal processing unit of each microphone unit is divided into fixed unit bit data and transmitted to the microphone unit connected to the higher level, and each microphone unit cooperates to transmit serial data. And transmitting the serial data for transmission to the host device.
  • serial data is converted in the minimum bit unit, but the conversion is not limited to the minimum bit unit, for example, conversion is performed for each word.
  • the bit data of the channel is not deleted and serial data is deleted. It is included and transmitted. For example, when the number of microphone units is four, the signal SDO4 always has bit data 0, but the signal SDO4 is transmitted as a bit data 0 signal without being deleted. Therefore, it is not necessary to consider which device corresponds to which channel, connection relationship, address information such as which data is transmitted to which device, and the connection order of each microphone unit is assumed. Even if they are switched, signals of appropriate channels are output from the respective microphone units.
  • the detection means for detecting the activation state of the microphone unit can detect the activation state by detecting the connection of the cable, but may detect the microphone unit connected when the power is turned on. In addition, when a new microphone unit is added during use, it is possible to detect the connection of the cable and detect the activation state. In this case, the program of the connected microphone unit can be deleted, and the sound processing program can be transmitted again from the main body to all the microphone units.
  • FIG. 12 is a configuration diagram of a signal processing system according to an application example.
  • the signal processing system according to the application example includes slave units 10A to 10E connected in series and a master unit (host device) 1 connected to the slave unit 10A.
  • FIG. 13 is an external perspective view of the child device 10A.
  • FIG. 14 is a block diagram showing the configuration of the slave unit 10A.
  • the host device 1 is connected to the child device 10 ⁇ / b> A via a cable 331.
  • the slave unit 10A and the slave unit 10B are connected via a cable 341.
  • the slave unit 10B and the slave unit 10C are connected via a cable 351.
  • the slave unit 10C and the slave unit 10D are connected via a cable 361.
  • the slave unit 10D and the slave unit 10E are connected via a cable 371.
  • the slave units 10A to 10E have the same configuration. Therefore, in the following description of the configuration of the slave unit, the slave unit 10A will be described as a representative.
  • the hardware configuration of each slave unit is the same.
  • Slave device 10A has the same configuration and function as microphone unit 2A described above. However, handset 10A includes a plurality of microphones MICa to MICm instead of microphone 25A.
  • the audio signal processing unit 24A of the DSP 22A includes configurations of an amplifier 11a to an amplifier 11m, a coefficient determination unit 120, a synthesis unit 130, and an AGC 140.
  • the number of microphones may be two or more, and can be set as appropriate according to the sound collection specifications of one slave unit. Accordingly, the number of amplifiers may be the same as the number of microphones. For example, three microphones are sufficient to collect sound with a small number in the circumferential direction.
  • Each microphone MICa to microphone MICm has a different sound collection direction. That is, each of the microphones MICa to MICm has a predetermined sound collection directivity and collects sound with a specific direction as a main sound collection direction, and generates a sound collection signal Sma to a sound collection signal Smm. Specifically, for example, the microphone MICa collects sound with the first specific direction as the main sound collection direction, and generates a sound collection signal Sma. Similarly, the microphone MICb collects sound with the second specific direction as the main sound collection direction, and generates a sound collection signal Smb.
  • the microphones MICA to MICm are installed in the slave unit 10A so that their sound collection directivities are different.
  • each of the microphones MICa to MICm is installed in the child device 10A so that the main sound collection direction is different.
  • the sound collection signals Sma to Smm output from the microphones MICa to MICm are input to the amplifiers 11a to 11m, respectively.
  • the collected sound signal Sma output from the microphone MICa is input to the amplifier 11a
  • the collected sound signal Smb output from the microphone MICb is input to the amplifier 11b.
  • the collected sound signal Smm output from the microphone MICm is input to the amplifier 11m.
  • each of the collected sound signals Sma to Smm is input to the coefficient determining unit 120. At this time, the collected sound signals Sma to Smm are converted from analog signals to digital signals and then input to the amplifiers 11a to 11m.
  • the coefficient determination unit 120 detects the signal power of the sound collection signal Sma to the sound collection signal Smm. The signal power of each of the sound collection signals Sma to Smm is compared, and the sound collection signal having the maximum power is detected. The coefficient determination unit 120 sets the gain coefficient for the collected sound signal detected as the maximum power to “1”. The coefficient determination unit 120 sets “0” as the gain coefficient for the collected sound signal other than the detected sound collected signal with the maximum power.
  • the coefficient determination unit 120 detects the maximum power and the signal level of the detected sound pickup signal, and generates level information IFO10A.
  • the coefficient determination unit 120 outputs the level information IFO10A to the FPGA 51A.
  • the amplifiers 11a to 11m are amplifiers capable of gain adjustment.
  • the amplifiers 11a to 11m amplify the collected sound signals Sma to Smm with the gain coefficients given from the coefficient determining unit 120, and generate amplified sound collected signals Smga to Smgm, respectively.
  • the amplifier 11a amplifies the sound collection signal Sma with the gain coefficient from the coefficient determination unit 120, and outputs the amplified sound collection signal Smg.
  • the amplifier 11b amplifies the sound collection signal Smb with the gain coefficient from the coefficient determination unit 120, and outputs the amplified sound collection signal Smgb.
  • the amplifier 11m amplifies the sound collection signal Smm with the gain coefficient from the coefficient determination unit 120, and outputs the amplified sound collection signal Smgm.
  • the amplified sound pickup signal is a signal having a signal level “0”.
  • the amplified sound pickup signals Smga to Smgm are input to the synthesis unit 130.
  • the synthesizing unit 130 is an adder, and generates the child machine audio signal Sm10A by adding the amplified sound pickup signals Smga to the amplified sound pickup signals Smgm.
  • the amplified sound pickup signal Smga to the amplified sound pickup signal Smgm only those having the maximum power of the sound pickup signal Sma to the sound pickup signal Smm that are the sources of the amplified sound pickup signals Smga to Smgm are collected.
  • the signal level is in accordance with the signal, and the others have a signal level of “0”.
  • the handset audio signal Sm10A obtained by adding the amplified sound pickup signal Smga to the amplified sound pickup signal Smgm becomes the maximum power and the detected sound pickup signal itself.
  • the sound collecting signal with the maximum power changes, that is, if the sound source of the sound collecting signal with the maximum power moves, the sound collecting signal that becomes the slave unit audio signal Sm10A also changes in accordance with this change and movement. .
  • the sound source can be tracked based on the sound collection signal of each microphone, and the child device sound signal Sm10A that has collected the sound from the sound source most efficiently can be output.
  • the AGC 140 is a so-called auto gain control amplifier, which amplifies the handset audio signal Sm10A with a predetermined gain and outputs it to the FPGA 51A.
  • the gain set by the AGC 140 is appropriately set according to communication specifications. Specifically, for example, the gain set by the AGC 140 is set so that the transmission loss is estimated in advance and the transmission loss is compensated.
  • the slave unit audio signal Sm10A By performing the gain control of the slave unit audio signal Sm10A, the slave unit audio signal Sm10A can be accurately and reliably transmitted from the slave unit 10A to the host device 1. Thereby, the host device 1 can receive and demodulate the slave unit audio signal Sm10A accurately and reliably.
  • the handset audio signal Sm10A after AGC and the level information IFO10A are input to the FPGA 51A.
  • the FPGA 51A generates handset data D10A from the handset voice signal Sm10A after AGC and the level information IFO10A, and transmits it to the host device 1.
  • the level information IFO10A is data synchronized with the slave unit audio signal Sm10A assigned to the same slave unit data.
  • FIG. 16 is a diagram showing an example of the data format of handset data transmitted from the handset to the host device.
  • the slave unit data D10A is data in which a header DH, a slave unit audio signal Sm10A, and level information IFO10A that can be identified by the slave unit that is the transmission source are respectively assigned a predetermined number of bits.
  • the slave unit audio signal Sm10A is assigned a predetermined bit after the header DH
  • the level information IFO10A is assigned a predetermined bit after the bit string of the slave unit audio signal Sm10A.
  • the other child devices 10B to 10E also include child device data D10B to child device data including child device audio signal Sm10B to child device audio signal Sm10E and level information IFO10B to level information IFO10E, respectively.
  • D10E is generated and output to the host device 1.
  • the slave unit data D10B to the slave unit data D10E are each divided into fixed unit bit data and transmitted to the slave unit connected to the host, so that each slave unit cooperates to create serial data. become.
  • FIG. 17 is a block diagram showing various configurations realized by the CPU 12 of the host device 1 executing a predetermined audio signal processing program.
  • the CPU 12 of the host device 1 includes a plurality of amplifiers 21a to 21e, a coefficient determination unit 220, and a synthesis unit 230.
  • the communication device I / F 11 receives the child device data D10A to the child device data D10E from the child devices 10A to 10E.
  • the communication I / F 11 demodulates the slave unit data D10A to the slave unit data D10E, and acquires the slave unit audio signal Sm10A to the slave unit audio signal Sm10E, and the respective level information Ifo10A to level information Ifo10E.
  • the communication I / F 11 outputs the slave unit audio signal Sm10A to the slave unit audio signal Sm10E to the amplifier 21a to the amplifier 21e, respectively. Specifically, the communication I / F 11 outputs the slave unit audio signal Sm10A to the amplifier 21a and outputs the slave unit audio signal Sm10B to the amplifier 21b. Similarly, the communication I / F 11 outputs the slave unit audio signal Sm10E to the amplifier 21e.
  • the communication I / F 11 outputs the level information IFO10A to the level information IFO10E to the coefficient determination unit 220.
  • the coefficient determination unit 220 compares the level information Ifo10A to the level information Ifo10E and detects the maximum level information.
  • the coefficient determination unit 220 sets the gain coefficient for the child unit audio signal corresponding to the detected maximum level and level information to “1”.
  • the coefficient determination unit 220 sets the gain coefficient for the collected sound signal other than the handset audio signal corresponding to the detected level information as the maximum level to “0”.
  • the amplifiers 21a to 21e are amplifiers capable of gain adjustment.
  • the amplifiers 21a to 21e amplify the slave unit audio signal Sm10A to the slave unit audio signal Sm10E with the gain coefficient given from the coefficient determination unit 220, and generate the amplified audio signal Smg10A to the amplified audio signal Smg10E, respectively. .
  • the amplifier 21a amplifies the handset audio signal Sm10A with the gain coefficient from the coefficient determination unit 220, and outputs the amplified audio signal Smg10A.
  • the amplifier 21b amplifies the child device audio signal Sm10B with the gain coefficient from the coefficient determining unit 220, and outputs the amplified audio signal Smg10B.
  • the amplifier 21e amplifies the handset audio signal Sm10E with the gain coefficient from the coefficient determination unit 220, and outputs the amplified audio signal Smg10E.
  • the amplifier to which gain coefficient “1” is output while maintaining the signal level of the slave unit audio signal as it is. . In this case, the amplified audio signal remains the slave audio signal.
  • the amplified audio signal is a signal having a signal level “0”.
  • the amplified audio signal Smg10A to the amplified audio signal Smg10E are input to the synthesis unit 230.
  • the synthesizer 230 is an adder and generates a tracking audio signal by adding the amplified audio signals Smg10A to Smg10E.
  • the amplified audio signal Smg10A to the amplified audio signal Smg10E are only those having the maximum level of the slave unit audio signal Sm10A to the slave unit audio signal Sm10E that are the sources of the amplified audio signals Smg10A to Smg10E.
  • the signal level is in accordance with the signal, and the others have a signal level of “0”.
  • the tracking audio signal obtained by adding the amplified audio signal Smg10A to the amplified audio signal Smg10E is the child unit audio signal itself detected as the maximum level.
  • the child device 10A to child device 10E perform the first-stage sound source tracking based on the collected sound signal of the microphone, and the host device 1 performs each child device 10A to child device.
  • Second-stage sound source tracking is performed by the handset audio signal of the machine 10E.
  • sound source tracking can be realized by the plurality of microphones MICa to MICm of the plurality of slave units 10A to 10E. Therefore, by appropriately setting the number and arrangement pattern of the slave units 10A to 10E, the sound source tracking can be reliably performed without being affected by the size of the sound collection range or the sound source position of a speaker or the like. it can. For this reason, the sound from the sound source can be collected with high quality without depending on the position of the sound source.
  • the number of audio signals transmitted from the slave unit 10A to the slave unit 10E is one without depending on the number of microphones attached to the slave unit. Therefore, the amount of communication data can be reduced as compared with the case where the collected sound signals of all microphones are transmitted to the host device. For example, when the number of microphones attached to each slave unit is m, the number of audio data transmitted from each slave unit to the host device is (1 / m) when all collected sound signals are transmitted to the host device. )
  • FIG. 18 is a flowchart of the sound source tracking process of the slave unit according to the embodiment of the present invention.
  • the processing flow of one slave unit will be described, but a plurality of slave units execute the same flow of processing.
  • the details of the processing are described above, detailed description thereof will be omitted below.
  • the slave unit collects sound with each microphone and generates a collected sound signal (S101).
  • the slave unit detects the level of the collected sound signal of each microphone (S102).
  • the handset detects the maximum power collected signal and generates level information of the maximum power collected signal (S103).
  • the slave unit determines a gain coefficient for each collected sound signal (S104). Specifically, the slave unit sets the gain of the collected sound signal with the maximum power to “1”, and sets the gains of the other collected sound signals to “0”.
  • the slave unit amplifies each sound collection signal with the determined gain coefficient (S105).
  • the slave unit synthesizes the amplified sound pickup signals to generate a slave unit voice signal (S106).
  • the slave unit performs AGC processing on the slave unit voice signal (S107), generates slave unit data including the slave unit voice signal and level information after the AGC process, and outputs the slave unit data to the host device (S108).
  • FIG. 19 is a flowchart of the sound source tracking process of the host device according to the embodiment of the present invention. In addition, since the details of the processing are described above, detailed description thereof will be omitted below.
  • the host device 1 receives handset data from each handset, and obtains handset audio signals and level information (S201). The host device 1 compares the level information from each slave unit and detects the maximum level slave unit audio signal (S202).
  • the host device 1 determines a gain coefficient for each slave unit audio signal (S203). Specifically, the host apparatus 1 sets the gain of the child machine audio signal at the maximum level to “1”, and sets the gains of the other child machine audio signals to “0”.
  • the host device 1 amplifies each slave unit audio signal with the determined gain coefficient (S204).
  • the host device 1 synthesizes the amplified handset audio signal and generates a tracking audio signal (S205).
  • the gain coefficient of the original maximum power sound collection signal is set from “1” to “0” at the timing when the maximum power sound collection signal is switched, and the gain of the new maximum power sound collection signal is set. The coefficient is switched from “0” to “1”.
  • these gain coefficients may be changed in more detailed steps. For example, the gain coefficient of the original maximum power sound pickup signal is gradually decreased from “1” to “0”, and the gain coefficient of the new maximum power sound pickup signal is changed from “0” to “1”. So as to gradually increase. That is, the cross-fading process may be performed from the original maximum power collected signal to the new maximum power collected signal. At this time, the sum of these gain coefficients is set to “1”.
  • Such a cross-fade process may be applied not only to the synthesis of the collected sound signal performed in the slave unit but also to the synthesis of the slave unit audio signal performed in the host device 1.
  • the AGC may be provided in the host device 1.
  • AGC may be performed by the communication I / F 11 of the host device 1.
  • the host device 1 can emit test sound waves from the speaker 102 toward each child device and cause each child device to determine the level of the test sound wave.
  • the host device 1 detects the activation state of the child device (S51)
  • the host device 1 reads the level determination program from the nonvolatile memory 14 (S52) and transmits it to each child device via the communication I / F 11 (S53).
  • the CPU 12 of the host device 1 divides the level determination program into fixed unit bit data, creates serial data in which the unit bit data is arranged in the order received by each slave unit, and transmits the serial data to the slave unit.
  • Each slave unit receives the level determination program transmitted from the host device 1 (S71).
  • the level determination program is temporarily stored in the volatile memory 23A (S72).
  • each slave unit extracts and receives the unit bit data to be received from the serial data, and temporarily stores the extracted unit bit data.
  • Each slave unit combines the unit bit data temporarily stored and executes the combined level determination program (S73).
  • the audio signal processing unit 24 realizes the configuration shown in FIG.
  • the level determination program since the level determination program only performs level determination and does not require generation and transmission of the child device audio signal Sm10A, the amplifier 11a to the amplifier 11m, the coefficient determination unit 120, the synthesis unit 130, and the AGC 140 No configuration is necessary.
  • the coefficient determination unit 220 of each slave unit functions as a sound level determination unit, and determines the level of the test sound wave input to the plurality of microphones MICa to MICm (S74).
  • the coefficient determination unit 220 transmits level information (level data) as a determination result to the host device 1 (S75).
  • the level data may be transmitted for each of the plurality of microphones MICa to MICm, or only the level data indicating the maximum level may be transmitted for each slave unit.
  • the level data is divided into fixed unit bit data and transmitted to the slave unit connected to the higher level, whereby each slave unit cooperates to create level determination serial data.
  • the host device 1 receives level data from each slave unit (S55).
  • the host device 1 selects an audio signal processing program to be transmitted to each slave unit based on the received level data, and reads out these programs from the nonvolatile memory 14 (s56). For example, a slave unit having a high test sound wave level is judged to have a high echo level, and an echo canceller program is selected. Further, the slave unit having a low test sound wave level is judged to have a low echo level, and a noise canceller program is selected. Then, the host device 1 transmits the read audio signal processing program to each slave unit (s57). Subsequent processing is the same as the flowchart shown in FIG.
  • the host device 1 may change the number of filter coefficients of each slave unit in the echo canceller program based on the received level data, and define a change parameter for changing the number of filter coefficients to each slave unit. Good. For example, the number of taps is increased for a slave unit having a high test sound wave level, and the number of taps is decreased for a slave unit having a low test sound wave level. In this case, the host device 1 divides the change parameter into fixed unit bit data, creates change parameter serial data in which the unit bit data is arranged in the order received by each slave unit, and transmits it to each slave unit.
  • the echo canceller can be provided for each of the plurality of microphones MICa to MICm in each slave unit.
  • the coefficient determination unit 220 of each slave unit transmits level data for each of the plurality of microphones MICa to MICm.
  • level information IFO10A to level information Ifo10E may include microphone identification information in each slave unit.
  • the slave unit when the slave unit detects the maximum power pickup signal and generates level information of the maximum power pickup signal (S801), the slave unit detects the maximum power of the microphone.
  • the identification information is included in the level information and transmitted (S802).
  • the host device 1 receives the level information from each slave unit (S901), and when the level information that is the maximum level is selected, the host device 1 is based on the microphone identification information included in the selected level information.
  • the echo canceller being used is specified (S902).
  • the host apparatus 1 makes a transmission request for each signal related to the echo canceller to the slave unit using the specified echo canceller (S903).
  • the slave unit When receiving the transmission request (S803), the slave unit receives the pseudo-regression sound signal and the collected sound signal NE1 from the designated echo canceller with respect to the host device 1 (the echo component is removed by the preceding echo canceller).
  • the previous sound collection signal) and the sound collection signal NE1 ′ (the sound collection signal after the echo component is removed by the previous echo canceller) are transmitted (S804).
  • the host device 1 receives these signals (S904), and inputs the received signals to the echo suppressor (S905). Thereby, since the coefficient according to the learning progress of the specified echo canceller is set in the echo generation unit 125 of the echo suppressor, an appropriate residual echo component can be generated.
  • the progress degree calculation unit 124 may be provided on the audio signal processing unit 24A side.
  • the host device 1 requests the slave unit using the identified echo canceller to transmit a coefficient that changes in accordance with the learning progress in S903 in FIG.
  • the slave unit reads the coefficient calculated by the progress level calculation unit 124 and transmits the coefficient to the host device 1.
  • the echo generator 125 generates a residual echo component according to the received coefficient and the pseudo regression sound signal.
  • FIG. 23 is a diagram showing a modified example related to the arrangement of the host device and the slave unit.
  • FIG. 23A shows an example in which the child device 10C is the farthest from the host device 1 and the child device 10E is the closest to the host device 1 although it is the same as the connection mode shown in FIG. That is, the cable 361 connecting the child device 10C and the child device 10D is bent so that the child device 10D and the child device 10E come closer to the host device 1.
  • the slave unit 10C is connected to the host device 1 via the cable 331.
  • the slave unit 10C branches the data transmitted from the host device 1 and transmits the data to the slave unit 10B and the slave unit 10D. Further, the slave unit 10C transmits the data transmitted from the slave unit 10B, the data transmitted from the slave unit 10D, and the data of the own device to the host device 1 together.
  • the host device is connected to any one of the plurality of slave units connected in series.
  • the present invention is a Japanese patent application filed on November 12, 2012 (Japanese Patent Application No. 2012-248158), a Japanese patent application filed on November 13, 2012 (Japanese Patent Application No. 2012-249607), and an application filed on November 13, 2012 Japanese patent application (Japanese Patent Application No. 2012-249609), the contents of which are incorporated herein by reference.
  • the terminal does not have a built-in operation program in advance, receives the program from the host device, temporarily stores it in the temporary storage memory, and then performs the operation. Therefore, it is not necessary to store a large number of programs in advance on the microphone unit side.
  • the program rewriting process for each microphone unit is unnecessary, and a new function can be realized only by changing the program stored in the nonvolatile memory on the host device side. it can.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
  • Telephone Function (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

 予め複数のプログラムを記憶させておく必要がない信号処理システムを提供する。CPU12は、不揮発性メモリ14から所定の音声信号処理プログラムを読み出し、通信I/F11を介して各マイクユニットに送信する。ホスト装置1から送信される音声信号処理プログラムは、通信I/F21Aを介して揮発性メモリ23Aに一時記憶される。音声信号処理部24Aは、揮発性メモリ23Aに一時記憶された音声信号処理プログラムに応じた処理を行い、マイク25Aが収音した音声に係るデジタル音声信号をホスト装置1に送信する。例えば、ホスト装置1からエコーキャンセラのプログラムが送信された場合、マイク25Aが収音した音声から、エコー成分を除去してからホスト装置1に送信する。揮発性メモリ23Aに一時記憶された音声信号処理プログラムは、マイクユニット2Aへの電源供給が絶たれた場合に消去される。マイクユニットは、起動毎に都度、必ずホスト装置1から動作用の音声信号処理プログラムを受信してから動作を行う。

Description

信号処理システムおよび信号処理方法
 この発明は、マイクユニットと、当該マイクユニットに接続されるホスト装置と、からなる信号処理システムに関する。
 従来、通信会議システムでは、通信先に応じてエコーキャンセル用のプログラムを選択できるように、複数のプログラムを記憶しておく装置が提案されている。
 例えば、特許文献1の装置では、通信先に応じてタップ長を変更する構成となっている。
 また、特許文献2のテレビ電話装置では、本体に設けられたディップスイッチを切り替えることで、用途毎に異なるプログラムを読み出すものである。
日本国特開2004-242207号公報 日本国特開平10-276415号公報
 しかし、特許文献1、2の装置では、想定される使用態様に応じて複数のプログラムを予め記憶しておかなければならない。仮に新たな機能を追加する場合にはプログラムを書き換える必要があり、特に端末数が増えた場合には問題となる。
 そこで、この発明は、予め複数のプログラムを記憶させておく必要がない信号処理システムを提供することを目的とする。
 本発明の信号処理システムは、マイクユニットと、当該マイクユニットの1つに接続されるホスト装置と、を備えた信号処理システムである。前記マイクユニットは、音声を収音するマイクと、一時記憶メモリと、前記マイクが収音した音声を処理する処理部と、を備えている。前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備えている。そして、本発明の信号処理システムは、前記ホスト装置が、前記不揮発性メモリから前記音声処理プログラムを前記マイクユニットの一時記憶メモリに送信し、前記マイクユニットが、前記一時記憶メモリに前記音声処理プログラムを一時記憶し、前記処理部は、前記一時記憶メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする。
 このように、本発明の信号処理システムでは、端末(マイクユニット)には予め動作用のプログラムを内蔵せず、ホスト装置からプログラムを受信して、一時記憶メモリに一時記憶してから動作を行うため、マイクユニット側に予め多数のプログラムを記憶させておく必要がない。また、新たな機能を追加する場合に、各マイクユニットのプログラム書き換え処理は不要であり、ホスト装置側の不揮発性メモリに記憶されているプログラムを変更するだけで、新たな機能を実現することができる。
 なお、マイクユニットを複数接続する場合、全てのマイクユニットに同じプログラムを実行させてもよいが、マイクユニット毎に個別のプログラムを実行させることも可能である。
 例えば、ホスト装置にスピーカが存在した場合において、最もホスト装置に近いマイクユニットにはエコーキャンセラのプログラムを実行させ、ホスト装置から遠いマイクユニットにはノイズキャンセラのプログラムを実行させる、等の態様が可能である。なお、本発明の信号処理システムでは、仮にマイクユニットの接続位置を変更した場合であっても、接続位置毎に適したプログラムが送信される。例えば、最も近いマイクユニットには、必ずエコーキャンセラのプログラムが実行される。したがって、どの位置にどのマイクユニットを接続するのか、ユーザが意識する必要はない。
 また、ホスト装置は、接続されるマイクユニットの数に応じて、送信するプログラムを変更することも可能である。接続されるマイクユニットの数が1つの場合は当該マイクユニットのゲインを高く設定し、マイクユニットの数が複数の場合は、各マイクユニットのゲインを相対的に低く設定する。
 あるいは、各マイクユニットが複数のマイクを備えている場合、マイクアレイとして機能させるためのプログラムを実行させる態様も可能である。
 また、ホスト装置は、前記音声処理プログラムを一定の単位ビットデータに分割し、前記単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成し、前記シリアルデータを前記各マイクユニットへ送信し、各マイクユニットは、前記シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した前記単位ビットデータを一時記憶し、処理部は、前記単位ビットデータを結合した音声処理プログラムに応じた処理を行う態様も可能である。これにより、マイクユニットの数が増えて送信するプログラムの数が増えたとしてもマイクユニット間の信号線の数が増えることがない。
 また、各マイクユニットは、前記処理後の音声を一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットは協同して送信用シリアルデータを作成し、前記ホスト装置に送信する態様も可能である。これにより、マイクユニットの数が増えてチャンネル数が増えたとしてもマイクユニット間の信号線の数が増えることがない。
 また、マイクユニットは、異なる収音方向を有する複数のマイクロホンと、音声レベル判定手段とを有し、前記ホスト装置は、スピーカを有し、該スピーカから各マイクユニットに向けて試験用音波を発し、各マイクユニットは、前記複数のマイクロホンに入力された前記試験用音波のレベルを判定し、判定結果となるレベルデータを一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットが協同してレベル判定用シリアルデータを作成する態様とすることも可能である。これにより、スピーカから各マイクユニットのマイクロホンに至るエコーのレベルをホスト装置で把握することができる。
 また、音声処理プログラムは、フィルタ係数が更新されるエコーキャンセラを実現するためのエコーキャンセルプログラムからなり、該エコーキャンセルプログラムは前記フィルタ係数の数を決めるフィルタ係数設定部を有し、前記ホスト装置は、各マイクユニットから受けとったレベルデータに基づいて各マイクユニットのフィルタ係数の数を変更し、各マイクユニットへフィルタ係数の数を変更するための変更パラメータを定め、該変更パラメータを一定の単位ビットデータに分割して、前記単位ビットデータを各マイクユニットが受け取る順に配列した変更パラメータ用シリアルデータを作成し、前記各マイクユニットへ前記変更パラメータ用シリアルデータを送信する態様とすることも可能である。
 この場合、ホスト装置に近く、エコーのレベルが高くなるマイクユニットには、フィルタ係数の数(タップ数)を多くしたり、ホスト装置に遠く、エコーのレベルが低くなるマイクユニットには、タップ数を短くしたりすることができる。
 また、音声処理プログラムは、前記エコーキャンセルプログラムまたはノイズ成分を除去するノイズキャンセルプログラムであり、前記ホスト装置は、前記レベルデータから各マイクユニットへ送信するプログラムを前記エコーキャンセルプログラムまたは前記ノイズキャンセルプログラムのいずれかに定める態様とすることも可能である。
 この場合、ホスト装置に近く、エコーのレベルが高いマイクユニットには、エコーキャンセラを実行させ、ホスト装置に遠く、エコーのレベルが低いマイクユニットには、ノイズキャンセラを実行させることができる。
 また、本発明の信号処理方法は、直列接続された複数のマイクユニットと、当該複数のマイクユニットの1つに接続されるホスト装置と、を備えた信号処理装置のための信号処理方法である。各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備える。前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備える。当該信号処理方法は、前記ホスト装置の起動状態を検知すると、前記不揮発性メモリから前記音声処理プログラムを読み出し、該音声処理プログラムを前記ホスト装置から前記各マイクユニットへ送信し、前記音声処理プログラムを前記各マイクユニットの前記一時記憶用メモリに一時記憶し、前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする。
 本発明によれば、予め複数のプログラムを記憶させておく必要がなく、新たな機能を追加する場合に端末のプログラムを書き換える必要もない。
本発明の信号処理システムの接続態様を示す図である。 図2(A)は、ホスト装置の構成を示すブロック図であり、図2(B)は、マイクユニットの構成を示すブロック図である。 図3(A)は、エコーキャンセラの構成を示す図であり、図3(B)は、ノイズキャンセラの構成を示す図である。 エコーサプレッサの構成を示す図である。 図5(A)は、本発明の信号処理システムの別の接続態様を示す図であり、図5(B)は、ホスト装置の外観斜視図であり、図5(C)は、マイクユニットの外観斜視図である。 図6(A)は、信号接続を示した概略ブロック図であり、図6(B)は、マイクユニットの構成を示す概略ブロック図である。 シリアルデータとパラレルデータを変換する場合の信号処理装置の構成を示した概略ブロック図である。 図8(A)は、シリアルデータとパラレルデータの変換を示す概念図であり、図8(B)は、マイクユニットの信号の流れを示す図である。 各マイクユニットからホスト装置に信号を送信する場合の信号の流れを示す図である。 ホスト装置から各マイクユニットに個別の音声信号処理プログラムを送信する場合の信号の流れを示す図である。 信号処理システムの動作を示したフローチャートである。 応用例に係る信号処理システムの構成を示すブロック図である。 応用例に係る子機の外観斜視図である。 応用例に係る子機の構成を示すブロック図である。 音声信号処理部の構成を示すブロック図である。 子機データのデータフォーマット例を示す図である。 応用例に係るホスト装置の構成を示すブロック図である。 子機の音源追尾処理のフローチャートである。 ホスト装置の音源追尾処理のフローチャートである。 試験用音波を発してレベル判定を行う場合の動作を示すフローチャートである。 子機のエコーキャンセラを特定する場合の動作を示すフローチャートである。 ホスト装置でエコーサプレッサを構成する場合のブロック図である。 図23(A)及び図23(B)は、ホスト装置および子機の配置の変形例を示した図である。
 図1は、本発明の信号処理システムの接続態様を示す図である。信号処理システムは、ホスト装置1と、ホスト装置1にそれぞれ接続される複数(この例では5つ)のマイクユニット2A~2Eと、からなる。
 マイクユニット2A~2Eは、例えば大空間の会議室内にそれぞれ配置される。ホスト装置1は、各マイクユニットから音声信号を受信し、種々の処理を行う。例えば、ネットワークを介して接続された他のホスト装置に各マイクユニットの音声信号を個別に送信する。
 図2(A)は、ホスト装置1の構成を示すブロック図であり、図2(B)は、マイクユニット2Aの構成を示すブロック図である。各マイクユニットのハードウェア構成は全て同一であり、図2(B)においては、代表してマイクユニット2Aの構成および機能について説明する。なお、本実施形態では、A/D変換の構成は省略し、特に記載が無い限り各種信号はデジタル信号であるものとして説明する。
 図2(A)に示すように、ホスト装置1は、通信インタフェース(I/F)11、CPU12、RAM13、不揮発性メモリ14、およびスピーカ102を備えている。
 CPU12は、不揮発性メモリ14からアプリケーションプログラムを読み出し、RAM13に一時記憶することで、種々の動作を行う。例えば、上述したように、各マイクユニットから音声信号を入力し、ネットワークを介して接続された他のホスト装置に各音声信号を個別に送信する。
 不揮発性メモリ14は、フラッシュメモリ、ハードディスクドライブ(HDD)等からなる。不揮発性メモリ14には、音声処理プログラム(以下、本実施形態においては音声信号処理プログラムと言う。)が記憶されている。音声信号処理プログラムは、各マイクユニットの動作用プログラムである。例えば、エコーキャンセラの機能を実現するプログラムや、ノイズキャンセラの機能を実現するプログラム、ゲイン制御を実現するプログラム等、様々な種類のプログラムが存在する。
 CPU12は、不揮発性メモリ14から所定の音声信号処理プログラムを読み出し、通信I/F11を介して各マイクユニットに送信する。なお、音声信号処理プログラムは、アプリケーションプログラムに内蔵されていてもよい。
 マイクユニット2Aは、通信I/F21A、DSP22A、およびマイクロホン(以下、マイクとも言う。)25Aを備えている。
 DSP22Aは、揮発性メモリ23Aおよび音声信号処理部24Aを備えている。なお、この例では、揮発性メモリ23AがDSP22Aに内蔵されている態様を示しているが、揮発性メモリ23Aは、DSP22Aとは別に設けられていてもよい。音声信号処理部24Aは、本発明の処理部に相当し、マイク25Aで収音した音声をデジタル音声信号として出力する機能を有する。
 ホスト装置1から送信される音声信号処理プログラムは、通信I/F21Aを介して揮発性メモリ23Aに一時記憶される。音声信号処理部24Aは、揮発性メモリ23Aに一時記憶された音声信号処理プログラムに応じた処理を行い、マイク25Aが収音した音声に係るデジタル音声信号をホスト装置1に送信する。例えば、ホスト装置1からエコーキャンセラのプログラムが送信された場合、マイク25Aが収音した音声から、エコー成分を除去してからホスト装置1に送信する。このように、各マイクユニットでエコーキャンセラのプログラムを実行すると、ホスト装置1において通信会議用のアプリケーションプログラムを実行する場合に好適である。
 揮発性メモリ23Aに一時記憶された音声信号処理プログラムは、マイクユニット2Aへの電源供給が絶たれた場合に消去される。マイクユニットは、起動毎に都度、必ずホスト装置1から動作用の音声信号処理プログラムを受信してから動作を行う。マイクユニット2Aが、通信I/F21Aを介して電源供給を受ける(バスパワー駆動する)ものであれば、ホスト装置1に接続された場合にのみ、ホスト装置1から動作用のプログラムを受信し、動作を行うことになる。
 上述のように、ホスト装置1において通信会議用のアプリケーションプログラムを実行する場合には、エコーキャンセラ用の音声信号処理プログラムが実行され、録音用のアプリケーションプログラムを実行する場合は、ノイズキャンセラの音声信号処理プログラムが実行される。あるいは、各マイクユニットで収音した音声をホスト装置1のスピーカ102から出力するために、拡声用のアプリケーションプログラムを実行する場合には、ハウリングキャンセラ用の音声信号処理プログラムが実行される、という態様も可能である。なお、ホスト装置1において録音用のアプリケーションプログラムを実行する場合は、スピーカ102は不要である。
 図3(A)を参照して、エコーキャンセラについて説明する。図3(A)は、音声信号処理部24Aがエコーキャンセラのプログラムを実行した場合の構成を示すブロック図である。図3(A)に示すように、音声信号処理部24Aは、フィルタ係数設定部241、適応フィルタ242、および加算部243から構成される。
 フィルタ係数設定部241は、音響伝達系(ホスト装置1のスピーカ102から各マイクユニットのマイクに至る音響伝搬経路)の伝達関数を推定し、推定した伝達関数で適応フィルタ242のフィルタ係数を設定する。
 適応フィルタ242は、FIRフィルタ等のデジタルフィルタを含んでいる。適応フィルタ242は、ホスト装置1から、当該ホスト装置1のスピーカ102に入力される放音信号FEを入力し、フィルタ係数設定部241に設定されたフィルタ係数でフィルタ処理して、擬似回帰音信号を生成する。適応フィルタ242は、生成した擬似回帰音信号を加算部243へ出力する。
 加算部243は、適応フィルタ242から入力された擬似回帰音信号をマイク25Aの収音信号NE1から差し引いた収音信号NE1’を出力する。
 フィルタ係数設定部241は、加算部243から出力された収音信号NE1’と放音信号FEとに基づいて、LMSアルゴリズム等の適応アルゴリズムを用いてフィルタ係数の更新を行う。そして、フィルタ係数設定部241は、更新したフィルタ係数を適応フィルタ242に設定する。
 次に、ノイズキャンセラについて、図3(B)を参照して説明する。図3(B)は、音声信号処理部24Aがノイズキャンセラのプログラムを実行した場合の構成を示すブロック図である。図3(B)に示すように、音声信号処理部24Aは、FFT処理部245、ノイズ除去部246、推定部247、およびIFFT処理部248から構成される。
 FFT処理部245は、収音信号NE’Tを周波数スペクトルNE’Nに変換する。ノイズ除去部246は、周波数スペクトルNE’Nに含まれるノイズ成分N’Nを除去する。ノイズ成分N’Nは、推定部247により周波数スペクトルNE’Nに基づいて推定される。
 推定部247は、FFT処理部245から入力された周波数スペクトルNE’Nに含まれるノイズ成分N’Nを推定する処理を行う。推定部247は、音声信号NE’Nのあるサンプルタイミングにおける周波数スペクトル(以下、音声スペクトルと称す。)S(NE’N)を順次取得するとともに、一時記憶する。推定部247は、この取得および記憶した複数回の音声スペクトルS(NE’N)に基づいて、ノイズ成分N’Nの或るサンプルタイミングにおける周波数スペクトル(以下、ノイズスペクトルと称す。)S(N’N)を推定する。そして、推定部247は、推定したノイズスペクトルS(N’N)をノイズ除去部246へ出力する。
  例えば、或るサンプリングタイミングTでのノイズスペクトルをS(N’N(T))とし、同サンプリングタイミングTでの音声スペクトルをS(NE’N(T))として、直前のサンプリングタイミングT-1でのノイズスペクトルをS(N’N(T-1))とする。また、α,βは、忘却定数であり、例えば、α=0.9、β=0.1となる。ノイズスペクトルS(N’N(T))は、次の式1で表すことができる。
  S(N’N(T))=αS(N’N(T-1))+βS(NE’N(T))・・・式1
  このように、音声スペクトルに基づいてノイズスペクトルS(N’N(T))を推定することで、暗騒音等のノイズ成分を推定することができる。なお、推定部247は、マイク25Aが収音した収音信号のレベルが低い状態(無音状態)の場合のみ、ノイズスペクトルの推定処理を行うものとする。
  ノイズ除去部246は、FFT処理部245から入力された周波数スペクトルNE’Nからノイズ成分N’Nを除去して、ノイズ除去後の周波数スペクトルCO’NをIFFT処理部248へ出力する。具体的には、ノイズ除去部246は、音声スペクトルS(NE’N)と、推定部247から入力されたノイズスペクトルS(N’N)との信号レベル比を算出する。ノイズ除去部246は、算出した信号レベル比が閾値以上の場合、音声スペクトルS(NE’N)を線形出力する。また、ノイズ除去部246は、算出した信号レベル比が閾値未満の場合、音声スペクトルS(NE’N)を非線形出力する。
 IFFT処理部248は、ノイズ成分N’Nを除去した後の周波数スペクトルCO’Nを時間軸に逆変換して生成した音声信号CO’Tを出力する。
 また、音声信号処理プログラムは、図4に示すようなエコーサプレッサのプログラムを実現することも可能である。エコーサプレッサは、図3(A)に示したエコーキャンセラの後段において、当該エコーキャンセラで除去しきれなかったエコー成分を除去するものである。エコーサプレッサは、図4に示すように、FFT処理部121、エコー除去部122、FFT処理部123、進捗度算出部124、エコー生成部125、FFT処理部126、およびIFFT処理部127から構成される。
 FFT処理部121は、エコーキャンセラから出力された収音信号NE1’を周波数スペクトルに変換する。この周波数スペクトルは、エコー除去部122および進捗度算出部124に出力される。エコー除去部122は、入力された周波数スペクトルに含まれる残留エコー成分(エコーキャンセラで除去しきれなかったエコー成分)を除去する。残留エコー成分は、エコー生成部125により生成される。
 エコー生成部125は、FFT処理部126から入力された擬似回帰音信号の周波数スペクトルに基づいて残留エコー成分を生成する。残留エコー成分は、過去に推定した残留エコー成分と、入力された擬似回帰音信号の周波数スペクトルに所定の係数を乗算したものと、を加算することにより求める。この所定の係数は、進捗度算出部124によって設定される。進捗度算出部124は、FFT処理部123から入力された収音信号NE1(前段のエコーキャンセラによりエコー成分が除去される前の収音信号)と、FFT処理部121から入力された収音信号NE1’(前段のエコーキャンセラによりエコー成分が除去された後の収音信号)とのパワー比を求める。進捗度算出部124は、当該パワー比に基づいた所定の係数を出力する。例えば、適応フィルタ242の学習が全く行われていない場合には、上記所定の係数を1とし、適応フィルタ242の学習が進んだ場合には、所定の係数を0とし、適応フィルタ242の学習が進むほど所定の係数を小さくして、残留エコー成分を小さくする。そして、エコー除去部122は、エコー生成部125で算出された残留エコー成分を除去する。IFFT処理部127は、エコー成分を除去した後の周波数スペクトルを時間軸に逆変換して出力する。
 なお、これらのエコーキャンセラのプログラム、ノイズキャンセラのプログラム、およびエコーサプレッサのプログラムは、ホスト装置1で実行することも可能である。特に、各マイクユニットがエコーキャンセラのプログラムを実行しつつ、ホスト装置がエコーサプレッサのプログラムを実行することも可能である。
 なお、本実施形態の信号処理システムでは、接続されるマイクユニットの数に応じて、実行する音声信号処理プログラムを変更することも可能である。例えば、接続されるマイクユニットの数が1つの場合は当該マイクユニットのゲインを高く設定し、マイクユニットの数が複数の場合は、各マイクユニットのゲインを相対的に低く設定する。
 あるいは、各マイクユニットが複数のマイクを備えている場合、マイクアレイとして機能させるためのプログラムを実行する態様も可能である。この場合、ホスト装置1に接続される順番(位置)に応じて、マイクユニット毎に異なるパラメータ(ゲイン、遅延量等)を設定することができる。
 このように、本実施形態のマイクユニットは、ホスト装置1の用途に応じて、種々の機能を実現することができる。このような多種多様な機能を実現する場合であっても、マイクユニット2Aには、予めプログラムを記憶させておく必要がなく、不揮発メモリが不要である(あるいは容量が小さく済む)。
 なお、本実施形態では、一時記憶用メモリの一例として、RAMである揮発性メモリ23Aを示したが、マイクユニット2Aへの電源供給が絶たれた場合に内容が消去されるものであれば揮発性メモリに限らず、フラッシュメモリ等の不揮発性メモリを用いてもよい。この場合、例えば、マイクユニット2Aへの電源供給が絶たれた場合やケーブルが差し替えられた場合に、DSP22Aは、フラッシュメモリの内容を消去する。なお、この場合、マイクユニット2Aへの電源供給が絶たれた時にDSP22Aがフラッシュメモリの内容を消去するまでの電源を一時的に確保するキャパシタ等を設ける。
 また、製品販売時には想定されていなかった新たな機能を追加する場合に、各マイクユニットのプログラム書き換え処理は不要であり、ホスト装置1の不揮発性メモリ14に記憶されている音声信号処理プログラムを変更するだけで、新たな機能を実現することができる。
 さらに、マイクユニット2A~マイクユニット2Eは、全て同じハードウェアを有するため、どのマイクユニットをどの位置に接続するのか、ユーザが意識する必要はない。
 例えば、最もホスト装置1に近いマイクユニット(例えばマイクユニット2A)にはエコーキャンセラのプログラムを実行させ、ホスト装置1から遠いマイクユニット(例えばマイクユニット2E)にはノイズキャンセラのプログラムを実行させる場合において、仮にマイクユニット2Aとマイクユニット2Eの接続を入れ替えた場合、最もホスト装置1に近いマイクユニット2Eに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニット2Aにノイズキャンセラのプログラムが実行される。
 なお、各マイクユニットは、図1に示したように、それぞれホスト装置1に直接接続されるスター型接続の態様であってもよいが、図5(A)に示すように、各マイクユニット同士が直列に接続され、いずれか1つのマイクユニット(マイクユニット2A)が、ホスト装置1に接続されるカスケード型接続の態様であってもよい。
 図5(A)の例では、ホスト装置1は、ケーブル331を介してマイクユニット2Aに接続されている。マイクユニット2Aおよびマイクユニット2Bは、ケーブル341を介して接続されている。マイクユニット2Bおよびマイクユニット2Cは、ケーブル351を介して接続されている。マイクユニット2Cおよびマイクユニット2Dは、ケーブル361を介して接続されている。マイクユニット2Dおよびマイクユニット2Eは、ケーブル371を介して接続されている。
 図5(B)は、ホスト装置1の外観斜視図であり、図5(C)は、マイクユニット2Aの外観斜視図である。図5(C)においては、マイクユニット2Aを代表して図示し、説明を行うが、全てのマイクユニットは、同じ外観および構成を有する。図5(B)に示すように、ホスト装置1は、直方体形状の筐体101Aを有し、筐体101Aの側面(正面)にスピーカ102が設けられ、筐体101Aの側面(背面)に通信I/F11が設けられている。マイクユニット2Aは、直方体形状の筐体201Aを有し、筐体201Aの側面にマイク25Aが設けられ、筐体201Aの正面に第1入出力端子33Aおよび第2入出力端子34Aが設けられている。なお、図5(C)では、マイク25Aが背面、右側面、および左側面の3つの収音方向を有する例を示している。ただし、収音方向はこの例に限るものではない。例えば、3つのマイク25Aを平面視して120度間隔で並べて円周方向に収音する態様であってもよい。マイクユニット2Aは、第1入出力端子33Aにケーブル331が接続され、当該ケーブル331を介してホスト装置1の通信I/F11に接続されている。また、マイクユニット2Aは、第2入出力端子34Aにケーブル341が接続され、当該ケーブル341を介してマイクユニット2Bの第1入出力端子33Bに接続されている。なお、筐体101Aおよび筐体201Aの形状は直方体形状に限るものではない。例えば、ホスト装置1の筐体101Aが楕円柱であり、マイクユニット2Aの筐体201Aが円柱形状であってもよい。
 本実施形態の信号処理システムは、外観上は図5(A)に示すカスケード型接続の態様でありながら、電気的にはスター型接続の態様を実現することも可能である。以下、この点について、説明する。
 図6(A)は、信号接続を示した概略ブロック図である。各マイクユニットのハードウェア構成は全て同一である。まず、代表して図6(B)を参照して、マイクユニット2Aの構成および機能について説明する。
 マイクユニット2Aは、図2(A)に示したDSP22Aに加えて、FPGA31A、第1入出力端子33Aおよび第2入出力端子34Aを備えている。
 FPGA31Aは、図6(B)に示すような物理回路を実現する。すなわち、FPGA31Aは、第1入出力端子33Aの第1チャンネルと、DSP22Aとを物理的に接続する。
 また、FPGA31Aは、第1入出力端子33Aの第1チャンネル以外のサブチャンネルの1つと、第2入出力端子34Aの当該サブチャンネルに対応するチャンネルに隣接する他チャンネルと、を物理的に接続する。例えば、第1入出力端子33Aの第2チャンネルと、第2入出力端子34Aの第1チャンネルと、を接続し、第1入出力端子33Aの第3チャンネルと、第2入出力端子34Aの第2チャンネルと、を接続し、第1入出力端子33Aの第4チャンネルと、第2入出力端子34Aの第3チャンネルと、を接続し、第1入出力端子33Aの第5チャンネルと、第2入出力端子34Aの第4チャンネルと、を接続する。第2入出力端子34Aの第5チャンネルは、どこにも接続されていない。
 このような物理回路により、ホスト装置1の第1チャンネルの信号(ch.1)は、マイクユニット2AのDSP22Aに入力される。また、図6(A)に示すように、ホスト装置1の第2チャンネルの信号(ch.2)は、マイクユニット2Aの第1入出力端子33Aの第2チャンネルから、マイクユニット2Bの第1入出力端子33Bの第1チャンネルに入力され、DSP22Bに入力される。
 第3チャンネルの信号(ch.3)は、第1入出力端子33Aの第3チャンネルからマイクユニット2Bの第1入出力端子33Bの第2チャンネルを経て、マイクユニット2Cの第1入出力端子33Cの第1チャンネルに入力され、DSP22Cに入力される。
 同様の構造により、第4チャンネルの音声信号(ch.4)は、第1入出力端子33Aの第4チャンネルからマイクユニット2Bの第1入出力端子33Bの第3チャンネル、およびマイクユニット2Cの第1入出力端子33Cの第2チャンネルを経て、マイクユニット2Dの第1入出力端子33Dの第1チャンネルに入力され、DSP22Dに入力される。第5チャンネルの音声信号(ch.5)は、第1入出力端子33Aの第5チャンネルからマイクユニット2Bの第1入出力端子33Bの第4チャンネル、マイクユニット2Cの第1入出力端子33Cの第3チャンネル、およびマイクユニット2Dの第1入出力端子33Dの第2チャンネルを経て、マイクユニット2Eの第1入出力端子33Eの第1チャンネルに入力され、DSP22Eに入力される。
 これにより、外観上はカスケード型接続でありながら、ホスト装置1から各マイクユニットに個別の音声信号処理プログラムを送信することができる。この場合、ケーブルを介して直列に接続された各マイクユニットは、着脱自在とすることができ、接続順を考慮する必要がない。例えば、最もホスト装置1に近いマイクユニット2Aにエコーキャンセラのプログラムを送信し、最もホスト装置1から遠いマイクユニット2Eにノイズキャンセラのプログラムを送信する場合において、仮にマイクユニット2Aとマイクユニット2Eの接続位置を入れ替えた場合に各マイクユニットに送信されるプログラムについて説明する。この場合、マイクユニット2Eの第1入出力端子33Eは、ケーブル331を介してホスト装置1の通信I/F11と接続され、第2入出力端子34Eは、ケーブル341を介してマイクユニット2Bの第1入出力端子33Bと接続される。マイクユニット2Aの第1入出力端子33Aは、ケーブル371を介してマイクユニット2Dの第2入出力端子34Dに接続される。すると、マイクユニット2Eにエコーキャンセラのプログラムが送信され、マイクユニット2Aにノイズキャンセラのプログラムが送信される。このように、接続順を入れ替えたとしても、最もホスト装置1に近いマイクユニットに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニットにノイズキャンセラのプログラムが実行される。
 なお、ホスト装置1は、各マイクユニットの接続順序を認識し、接続順序およびケーブルの長さに基づいて、自装置から一定の距離以内のマイクユニットにはエコーキャンセラのプログラムを送信し、自装置から一定の距離を超えたマイクユニットには、ノイズキャンセラのプログラムを送信することも可能である。ケーブルの長さは、例えば、専用のケーブルを用いる場合には、予めホスト装置にケーブルの長さに関する情報を記憶しておく。また、各ケーブルに識別情報を設定して、識別情報とケーブルの長さに関する情報を記憶し、使用されている各ケーブルから識別情報を受信することで、使用されている各ケーブルの長さを知ることも可能である。
 なお、ホスト装置1は、エコーキャンセラのプログラムを送信する時に、自装置に近いエコーキャンセラにはフィルタ係数の数(タップ数)を増加して残響の長いエコーにも対応できるようにし、自装置から遠いエコーキャンセラにはフィルタ係数の数(タップ数)を減少することが好ましい。
 また、自装置から一定の距離以内のマイクユニットにはエコーキャンセラのプログラムに代えて、非線形処理を行うプログラム(例えば上述のエコーサプレッサのプログラム)を送信し、エコーキャンセラでは除去しきれないエコー成分が発生する場合であっても、当該エコー成分を除去する態様とすることも可能である。また、本実施形態では、マイクユニットは、ノイズキャンセラまたはエコーキャンセラのいずれかを選択するよう記載されているが、ホスト装置1に近いマイクユニットにはノイズキャンセラおよびエコーキャンセラの双方のプログラムを送信し、ホスト装置1から遠いマイクユニットにはノイズキャンセラのプログラムのみを送信してもよい。
 図6(A)および図6(B)に示した構成によれば、各マイクユニットからホスト装置1に音声信号を出力する場合も同様に、各マイクユニットから各チャンネルの音声信号を個別に出力することができる。
 また、この例では、FPGAで物理回路を実現する例を示したが、上述の物理回路を実現できるものであれば、FPGAに限るものではない。例えば、専用のICを予め用意しておいてもよいし、あらかじめ配線を施しておいてもよい。また、物理回路に限らず、ソフトウェアでFPGA31Aと同様の回路を実現する態様であってもよい。
 次に、図7は、シリアルデータとパラレルデータを変換する場合のマイクユニットの構成を示した概略ブロック図である。図7においては、マイクユニット2Aを代表して図示し、説明を行うが、全てのマイクユニットは、同じ構成および機能を有する。
 この例では、マイクユニット2Aは、図6(A)および図6(B)に示したFPGA31Aに代えて、FPGA51Aを備えている。
 FPGA51Aは、上述したFPGA31Aに相当する物理回路501A、シリアルデータとパラレルデータとを変換する第1変換部502Aおよび第2変換部503Aを備えている。
 この例では、第1入出力端子33Aおよび第2入出力端子34Aは、複数チャンネルの音声信号をシリアルデータとして入出力する。DSP22Aは、第1チャンネルの音声信号をパラレルデータで物理回路501Aに出力する。
 物理回路501Aは、DSP22Aから出力された第1チャンネルのパラレルデータを第1変換部502Aに出力する。また、物理回路501Aは、第2変換部503Aから出力された第2チャンネルのパラレルデータ(DSP22Bの出力信号に相当する。)、第3チャンネルのパラレルデータ(DSP22Cの出力信号に相当する。)、第4チャンネルのパラレルデータ(DSP22Dの出力信号に相当する。)、および第5チャンネルのパラレルデータ(DSP22Eの出力信号に相当する。)を第1変換部502Aに出力する。
 図8(A)は、シリアルデータとパラレルデータの変換を示す概念図である。パラレルデータは、図8(A)の上欄に示すように、同期用のビットクロック(BCK)と、ワードクロック(WCK)と、各チャンネル(5チャンネル)の信号SDO0~SDO4と、からなる。
 シリアルデータは、同期信号とデータ部分と、からなる。データ部分には、ワードクロックと、各チャンネル(5チャンネル)の信号SDO0~SDO4と、誤り訂正符号CRCと、が含まれている。
 第1変換部502Aは、物理回路501Aから図8(A)上欄に示すようなパラレルデータが入力される。第1変換部502Aは、当該パラレルデータを図8(A)下欄に示すようなシリアルデータに変換する。このようなシリアルデータが第1入出力端子33Aに出力され、ホスト装置1に入力される。ホスト装置1は、入力されたシリアルデータに基づいて、各チャンネルの音声信号を処理する。
 一方、第2変換部503Aは、マイクユニット2Bの第1変換部502Bから図8(A)下欄に示すようなシリアルデータが入力され、図8(A)上欄に示すようなパラレルデータに変換し、物理回路501Aに出力する。
 そして、図8(B)に示すように、物理回路501Aによって、第2変換部503Aが出力するSDO0の信号は、SDO1の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO1の信号は、SDO2の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO2の信号は、SDO3の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO3の信号は、SDO4の信号として第1変換部502Aに出力される。
 したがって、図6(A)に示した例と同様に、DSP22Aの出力した第1チャンネルの音声信号(ch.1)は、ホスト装置1に第1チャンネルの音声信号として入力され、DSP22Bが出力した第2チャンネルの音声信号(ch.2)は、ホスト装置1に第2チャンネルの音声信号として入力され、DSP22Cが出力した第3チャンネルの音声信号(ch.3)は、ホスト装置1に第3チャンネルの音声信号として入力され、DSP22Dが出力した第4チャンネルの音声信号(ch.4)は、ホスト装置1に第4チャンネルの音声信号として入力され、マイクユニット2EのDSP22Eが出力した第5チャンネルの音声信号(ch.5)は、ホスト装置1に第5チャンネルの音声信号として入力される。
 図9を参照して、上述の信号の流れについて説明する。まず、マイクユニット2EのDSP22Eは、自装置のマイク25Eで収音した音声を音声信号処理部24Aで処理し、当該処理後の音声を単位ビットデータに分割したもの(信号SDO4)を物理回路501Eに出力する。物理回路501Eは、当該信号SDO4を第1チャンネルの信号とするパラレルデータとして、第1変換部502Eに出力する。第1変換部502Eは、当該パラレルデータをシリアルデータに変換する。当該シリアルデータは、図9の最下欄に示すように、ワードクロックから順に、先頭の単位ビットデータ(図中の信号SDO4)と、ビットデータ0(図中のハイフン「-」で示す。)と、誤り訂正符号CRCと、が含まれている。このようなシリアルデータが第1入出力端子33Eから出力され、マイクユニット2Dに入力される。
 マイクユニット2Dの第2変換部503Dは、入力されたシリアルデータをパラレルデータに変換し、物理回路501Dに出力する。そして、物理回路501Dは、当該パラレルデータに含まれる信号SDO4を第2チャンネルの信号として、DSP22Dから入力される信号SDO3を第1チャンネルの信号として、第1変換部502Dに出力する。第1変換部502Dは、図9の上から3欄目に示すように、信号SDO3をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO4を2番目の単位ビットデータとするシリアルデータに変換する。また、第1変換部502Dは、この場合(信号SDO3が先頭であり、信号SDO4が2番目である場合)の誤り訂正符号CRCを新たに生成し、当該シリアルデータに付与して出力する。
 このようなシリアルデータが第1入出力端子33Dから出力され、マイクユニット2Cに入力される。マイクユニット2Cにおいても同様の処理が行われる。その結果、マイクユニット2Cは、信号SDO2をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO3を2番目の単位ビットデータとし、信号SDO4を3番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータは、マイクユニット2Bに入力される。マイクユニット2Bにおいても同様の処理が行われる。その結果、マイクユニット2Bは、信号SDO1をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO2を2番目の単位ビットデータとし、信号SDO3を3番目の単位ビットデータとし、信号SDO4を4番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータは、マイクユニット2Aに入力される。マイクユニット2Aにおいても同様の処理が行われる。その結果、マイクユニット2Aは、信号SDO0をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO1を2番目の単位ビットデータとし、信号SDO2を3番目の単位ビットデータとし、信号SDO3を4番目の単位ビットデータとし、信号SDO4を5番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。そして、当該シリアルデータは、ホスト装置1に入力される。
 このようにして、図6(A)に示した例と同様に、DSP22Aの出力した第1チャンネルの音声信号(ch.1)は、ホスト装置1に第1チャンネルの音声信号として入力され、DSP22Bが出力した第2チャンネルの音声信号(ch.2)は、ホスト装置1に第2チャンネルの音声信号として入力され、DSP22Cが出力した第3チャンネルの音声信号(ch.3)は、ホスト装置1に第3チャンネルの音声信号として入力され、DSP22Dが出力した第4チャンネルの音声信号(ch.4)は、ホスト装置1に第4チャンネルの音声信号として入力され、マイクユニット2EのDSP22Eが出力した第5チャンネルの音声信号(ch.5)は、ホスト装置1に第5チャンネルの音声信号として入力される。すなわち、各マイクユニットは、各DSPで処理された音声信号を、一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットは協同して送信用シリアルデータを作成することになる。
 次に、図10は、ホスト装置1から各マイクユニットに個別の音声信号処理プログラムを送信する場合の信号の流れを示す図である。この場合、図9に示した信号の流れとは逆の処理がなされる。
 まず、ホスト装置1は、不揮発性メモリ14から、各マイクユニットに送信する音声信号処理プログラムを一定の単位ビットデータに分割して読み出し、単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成する。シリアルデータは、ワードクロックに続く先頭の単位ビットデータとして信号SDO0、2番目の単位ビットデータとして信号SDO1、3番目の単位ビットデータとして信号SDO2、4番目の単位ビットデータとして信号SDO3、5番目の単位ビットデータとして信号SDO4、および誤り訂正符号CRCが付与されている。当該シリアルデータがまずマイクユニット2Aに入力される。マイクユニット2Aでは、当該シリアルデータから先頭の単位ビットデータである信号SDO0が抜き出され、当該抜き出された単位ビットデータがDSP22Aに入力され、揮発性メモリ23Aに一時記憶される。
 そして、マイクユニット2Aは、ワードクロックに続く先頭の単位ビットデータとして信号SDO1、2番目の単位ビットデータとして信号SDO2、3番目の単位ビットデータとして信号SDO3、4番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。5番目の単位ビットデータは0(図中のハイフン「-」)とされる。当該シリアルデータがマイクユニット2Bに入力される。マイクユニット2Bでは、先頭の単位ビットデータである信号SDO1がDSP22Bに入力される。そして、マイクユニット2Bは、ワードクロックに続く先頭の単位ビットデータとして信号SDO2、2番目の単位ビットデータとして信号SDO3、3番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータがマイクユニット2Cに入力される。マイクユニット2Cでは、先頭の単位ビットデータである信号SDO2がDSP22Cに入力される。そして、マイクユニット2Cは、ワードクロックに続く先頭の単位ビットデータとして信号SDO3、2番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータがマイクユニット2Dに入力される。マイクユニット2Dでは、先頭の単位ビットデータである信号SDO3がDSP22Dに入力される。そして、マイクユニット2Dは、ワードクロックに続く先頭の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。最後に、当該シリアルデータがマイクユニット2Eに入力され、先頭の単位ビットデータである信号SDO4がDSP22Eに入力される。
 この様にして、ホスト装置1に接続されているマイクユニットには必ず先頭の単位ビットデータ(信号SDO0)が送信され、2番目に接続されているマイクユニットには必ず2番目の単位ビットデータ(信号SDO1)が送信され、3番目に接続されているマイクユニットには必ず3番目の単位ビットデータ(信号SDO2)が送信され、4番目に接続されているマイクユニットには必ず4番目の単位ビットデータ(信号SDO3)が送信され、5番目に接続されているマイクユニットには必ず5番目の単位ビットデータ(信号SDO4)が送信される。
 そして、各マイクユニットは、単位ビットデータを結合した音声信号処理プログラムに応じた処理を行う。この場合においても、ケーブルを介して直列に接続された各マイクユニットは、着脱自在とすることができ、接続順を考慮する必要がない。例えば、最もホスト装置1に近いマイクユニット2Aにエコーキャンセラのプログラムを送信し、最もホスト装置1から遠いマイクユニット2Eにノイズキャンセラのプログラムを送信する場合において、仮にマイクユニット2Aとマイクユニット2Eの接続位置を入れ替えると、マイクユニット2Eにエコーキャンセラのプログラムが送信され、マイクユニット2Aにノイズキャンセラのプログラムが送信される。このように、接続順を入れ替えたとしても、最もホスト装置1に近いマイクユニットに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニットにノイズキャンセラのプログラムが実行される。
 次に、図11のフローチャートを参照して、ホスト装置1および各マイクユニットの起動時の動作について説明する。ホスト装置1のCPU12は、マイクユニットが接続され、当該マイクユニットの起動状態を検知すると(S11)、不揮発性メモリ14から所定の音声信号処理プログラムを読み出し(S12)、通信I/F11を介して各マイクユニットに送信する(S13)。このとき、ホスト装置1のCPU12は、上述のように音声信号処理プログラムを一定の単位ビットデータに分割し、単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成して、マイクユニットへ送信する。
 各マイクユニットは、ホスト装置1から送信された音声信号処理プログラムを受信し(S21)、一時記憶する(S22)。このとき、各マイクユニットは、シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した単位ビットデータを一時記憶する。マイクユニットは、一時記憶した単位ビットデータを結合し、結合した音声信号処理プログラムに応じた処理を行う(S23)。そして、各マイクユニットは、収音した音声に係るデジタル音声信号をホスト装置1に送信する(S24)。このとき、各マイクユニットの音声信号処理部が処理したデジタル音声信号は、一定の単位ビットデータに分割されて上位に接続されたマイクユニットに送信され、各マイクユニットが協同して送信用シリアルデータを作成し、当該送信用シリアルデータをホスト装置に送信する。
 なお、この例では、最小ビット単位でシリアルデータに変換しているが、例えば1ワード毎に変換する等、最小ビット単位の変換に限るものではない。
 また、仮に、接続されていないマイクユニットが存在した場合、信号がないチャンネルが存在する場合(ビットデータが0となる場合)であっても、当該チャンネルのビットデータは削除せずに、シリアルデータ内に含めて伝送する。例えば、マイクユニットの数が4つであった場合、必ず信号SDO4はビットデータが0となるが、当該信号SDO4は削除されずにビットデータ0の信号として伝送される。したがって、どの装置がどのチャンネルに対応する装置であるか、接続関係を考慮する必要もなく、どの装置にどのデータを送受信するか、等のアドレス情報も不要であり、仮に各マイクユニットの接続順を入れ替えたとしても、それぞれのマイクユニットから適切なチャンネルの信号が出力される。
 このようにして、装置間をシリアルデータで伝送する構成とすれば、チャンネル数が増えたとしても装置間の信号線が増えることがない。なお、マイクユニットの起動状態を検知する検知手段は、ケーブルの接続を検知することで起動状態を検知することができるが、電源投入時に接続されているマイクユニットを検出してもよい。また、使用中に新たなマイクユニットが追加された場合は、ケーブルの接続を検知し、起動状態を検知することもできる。この場合は、接続済みマイクユニットのプログラムを消去し、再度本体からすべてのマイクユニットへ音声処理プログラムを送信することもできる。
 次に、図12は、応用例に係る信号処理システムの構成図である。応用例に係る信号処理システムでは、直列接続された子機10A~子機10Eと、子機10Aに接続された親機(ホスト装置)1と、を備えている。図13は、子機10Aの外観斜視図である。図14は、子機10Aの構成を示すブロック図である。この応用例では、ホスト装置1は、ケーブル331を介して子機10Aに接続されている。子機10Aおよび子機10Bは、ケーブル341を介して接続されている。子機10Bおよび子機10Cは、ケーブル351を介して接続されている。子機10Cおよび子機10Dは、ケーブル361を介して接続されている。子機10Dおよび子機10Eは、ケーブル371を介して接続されている。子機10A~子機10Eは、同じ構成からなる。したがって、以下の子機の構成の説明では、子機10Aを代表して説明する。各子機のハードウェア構成は全て同一である。
 子機10Aは、上述のマイクユニット2Aと同じ構成および機能を有する。ただし、子機10Aは、マイク25Aに代えて、複数のマイクロホンMICa~マイクロホンMICmを備えている。また、この例では、図15に示すように、DSP22Aの音声信号処理部24Aは、増幅器11a~増幅器11m、係数決定部120、合成部130、およびAGC140の構成を備える。
 マイクロホンの本数は、二本以上であればよく、一台の子機での収音仕様に応じて、適宜設定することができる。これに応じて、増幅器の個数も、マイクロホンの本数と同じにすればよい。例えば、円周方向に少ない本数で収音するならば三本のマイクロホンで足りる。
 各マイクロホンMICa~マイクロホンMICmは、異なる収音方向を有する。すなわち、各マイクロホンMICa~マイクロホンMICmは、所定の収音指向性を有し、特定方向を主収音方向として収音し、収音信号Sma~収音信号Smmを生成する。具体的に、例えば、マイクロホンMICaは、第1の特定方向を主収音方向として収音し、収音信号Smaを生成する。同様に、マイクロホンMICbは、第2の特定方向を主収音方向として収音し、収音信号Smbを生成する。
 各マイクロホンMICa~マイクロホンMICmは、それぞれの収音指向性が異なるように、子機10Aに設置されている。言い換えれば、各マイクロホンMICa~マイクロホンMICmは、主収音方向が異なるように、子機10Aに設置されている。
 各マイクロホンMICa~マイクロホンMICmから出力される各収音信号Sma~収音信号Smmは、それぞれ増幅器11a~増幅器11mに入力される。例えば、マイクロホンMICaから出力される収音信号Smaは、増幅器11aに入力され、マイクロホンMICbから出力される収音信号Smbは、増幅器11bに入力される。マイクロホンMICmから出力される収音信号Smmは、増幅器11mに入力される。また、各収音信号Sma~収音信号Smmは、係数決定部120に入力される。この際、各収音信号Sma~収音信号Smmは、アナログ信号からデジタル信号に変換された後に、各増幅器11a~増幅器11mに入力される。
 係数決定部120は、収音信号Sma~収音信号Smmの信号パワーを検出する。各収音信号Sma~収音信号Smmの信号パワーを比較し、最大パワーとなる収音信号を検出する。係数決定部120は、最大パワーと検出された収音信号に対するゲイン係数を「1」とする。係数決定部120は、最大パワーと検出された収音信号以外の収音信号に対するゲイン係数を「0」とする。
 係数決定部120は、決定したゲイン係数を、増幅器11a~増幅器11mに出力する。具体的には、係数決定部120は、最大パワーと検出された収音信号が入力される増幅器にはゲイン係数=「1」を出力し、それ以外の増幅器にはゲイン係数=「0」を出力する。
 係数決定部120は、最大パワーと検出された収音信号の信号レベルを検出して、レベル情報IFo10Aを生成する。係数決定部120は、レベル情報IFo10Aを、FPGA51Aに出力する。
 増幅器11a~増幅器11mは、ゲイン調整可能な増幅器である。増幅器11a~増幅器11mは、収音信号Sma~収音信号Smmを、係数決定部120から与えられたゲイン係数で増幅し、それぞれに、増幅後収音信号Smga~増幅後収音信号Smgmを生成する。具体的に、例えば、増幅器11aは、係数決定部120からのゲイン係数で収音信号Smaを増幅して、増幅後収音信号Smgaを出力する。増幅器11bは、係数決定部120からのゲイン係数で収音信号Smbを増幅して、増幅後収音信号Smgbを出力する。増幅器11mは、係数決定部120からのゲイン係数で収音信号Smmを増幅して、増幅後収音信号Smgmを出力する。
 ここで、上述のように、ゲイン係数は、「1」もしくは「0」であるので、ゲイン係数=「1」が与えられた増幅器は、収音信号の信号レベルをそのまま維持して出力する。この場合、増幅後収音信号は、収音信号のままとなる。
 一方、ゲイン係数=「0」が与えられた増幅器は、収音信号の信号レベルを「0」に抑圧する。この場合、増幅後収音信号は、信号レベル「0」の信号となる。
 各増幅後収音信号Smga~Smgmは、合成部130に入力される。合成部130は、加算器であり、各増幅後収音信号Smga~増幅後収音信号Smgmを加算することで、子機音声信号Sm10Aを生成する。
 ここで、増幅後収音信号Smga~増幅後収音信号Smgmは、当該増幅後収音信号Smga~Smgmの元となる収音信号Sma~収音信号Smmの最大パワーのものだけが、収音信号に応じた信号レベルであり、他のものは信号レベルが「0」である。
 したがって、増幅後収音信号Smga~増幅後収音信号Smgmを加算した子機音声信号Sm10Aは、最大パワーと検出された収音信号そのものとなる。
 このような処理を行うことで、最大パワーの収音信号を検出して、子機音声信号Sm10Aとして出力することができる。この処理は、所定の時間間隔をおいて逐次実行される。したがって、最大パワーの収音信号が変化すれば、すなわち、この最大パワーの収音信号の音源が移動すれば、この変化および移動に応じて、子機音声信号Sm10Aとなる収音信号も変化する。これにより、各マイクロホンの収音信号に基づいて音源を追尾し、音源からの音を最も効率良く収音した子機音声信号Sm10Aを出力することができる。
 AGC140は、所謂、オートゲインコントロールアンプであり、子機音声信号Sm10Aを、所定ゲインで増幅して、FPGA51Aに出力する。AGC140で設定するゲインは、通信仕様に応じて適宜設定される。具体的には、例えば、AGC140で設定するゲインは、予め伝送損失を見積もっておき、当該伝送損失を補償するように設定される。
 このような子機音声信号Sm10Aのゲインコントロールを行うことで、子機10Aからホスト装置1へ、子機音声信号Sm10Aを正確且つ確実に送信することができる。これにより、ホスト装置1は、子機音声信号Sm10Aを正確且つ確実に受信し、復調することができる。
 そして、FPGA51Aには、AGC後の子機音声信号Sm10Aとレベル情報IFo10Aとが入力される。
 FPGA51Aは、AGC後の子機音声信号Sm10Aとレベル情報IFo10Aとから子機データD10Aを生成して、ホスト装置1に送信する。この際、レベル情報IFo10Aは、同じ子機データに割り当てられる子機音声信号Sm10Aと同期したデータである。
 図16は、子機からホスト装置に送信される子機データのデータフォーマット例を示す図である。子機データD10Aは、送信元である子機が識別可能なヘッダDH、子機音声信号Sm10A、レベル情報IFo10Aがそれぞれ所定ビット数割り当てられたデータである。例えば、図16に示すように、ヘッダDHの後に子機音声信号Sm10Aが所定ビット割り当てられ、子機音声信号Sm10Aのビット列の後にレベル情報IFo10Aが所定ビット割り当てられている。
 他の子機10B~10Eも、上述の子機10Aと同様に、それぞれに子機音声信号Sm10B~子機音声信号Sm10Eとレベル情報IFo10B~レベル情報IFo10Eとを含む子機データD10B~子機データD10Eを生成して、ホスト装置1に出力する。なお、子機データD10B~子機データD10Eは、それぞれ一定の単位ビットデータに分割されて上位に接続された子機に送信されることにより、各子機が協同してシリアルデータを作成することになる。
 図17は、ホスト装置1のCPU12が所定の音声信号処理プログラムを実行することにより実現される各種構成を示すブロック図である。
 ホスト装置1のCPU12は、複数の増幅器21a~増幅器21e、係数決定部220、および合成部230を備える。
 通信I/F11には、各子機10A~子機10Eからの子機データD10A~子機データD10Eが入力される。通信I/F11は、子機データD10A~子機データD10Eを復調し、子機音声信号Sm10A~子機音声信号Sm10Eと、各レベル情報IFo10A~レベル情報IFo10Eを取得する。
 通信I/F11は、子機音声信号Sm10A~子機音声信号Sm10Eをそれぞれ増幅器21a~増幅器21eに出力する。具体的には、通信I/F11は、子機音声信号Sm10Aを増幅器21aに出力し、子機音声信号Sm10Bを増幅器21bに出力する。同様に、通信I/F11は、子機音声信号Sm10Eを増幅器21eに出力する。
 通信I/F11は、レベル情報IFo10A~レベル情報IFo10Eを係数決定部220に出力する。
 係数決定部220は、レベル情報IFo10A~レベル情報IFo10Eを比較し、最大のレベル情報を検出する。
 係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号に対するゲイン係数を「1」とする。係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号以外の収音信号に対するゲイン係数を「0」とする。
 係数決定部220は、決定したゲイン係数を、増幅器21a~増幅器21eに出力する。具体的には、係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号が入力される増幅器にはゲイン係数=「1」を出力し、それ以外の増幅器にはゲイン係数=「0」を出力する。
 増幅器21a~増幅器21eは、ゲイン調整可能な増幅器である。増幅器21a~21eは、子機音声信号Sm10A~子機音声信号Sm10Eを、係数決定部220から与えられたゲイン係数で増幅し、それぞれに、増幅後音声信号Smg10A~増幅後音声信号Smg10Eを生成する。
 具体的に、例えば、増幅器21aは、係数決定部220からのゲイン係数で子機音声信号Sm10Aを増幅して、増幅後音声信号Smg10Aを出力する。増幅器21bは、係数決定部220からのゲイン係数で子機音声信号Sm10Bを増幅して、増幅後音声信号Smg10Bを出力する。増幅器21eは、係数決定部220からのゲイン係数で子機音声信号Sm10Eを増幅して、増幅後音声信号Smg10Eを出力する。
 ここで、上述のように、ゲイン係数は、「1」もしくは「0」であるので、ゲイン係数=「1」が与えられた増幅器は、子機音声信号の信号レベルをそのまま維持して出力する。この場合、増幅後音声信号は、子機音声信号のままとなる。
 一方、ゲイン係数=「0」が与えられた増幅器は、子機音声信号の信号レベルを「0」に抑圧する。この場合、増幅後音声信号は、信号レベル「0」の信号となる。
 各増幅後音声信号Smg10A~増幅後音声信号Smg10Eは、合成部230に入力される。合成部230は、加算器であり、各増幅後音声信号Smg10A~増幅後音声信号Smg10Eを加算することで、追尾音声信号を生成する。
 ここで、増幅後音声信号Smg10A~増幅後音声信号Smg10Eは、当該増幅後音声信号Smg10A~Smg10Eの元となる子機音声信号Sm10A~子機音声信号Sm10Eの最大レベルのものだけが、子機音声信号に応じた信号レベルであり、他のものは信号レベルが「0」である。
 したがって、増幅後音声信号Smg10A~増幅後音声信号Smg10Eを加算した追尾音声信号は、最大レベルと検出された子機音声信号そのものとなる。
 このような処理を行うことで、最大レベルの子機音声信号を検出して、追尾音声信号として出力することができる。この処理は、所定の時間間隔をおいて逐次実行される。したがって、最大レベルの子機音声信号が変化すれば、すなわち、この最大レベルの子機音声信号の音源が移動すれば、この変化および移動に応じて、追尾音声信号となる子機音声信号も変化する。これにより、各子機の子機音声信号に基づいて音源を追尾し、音源からの音を最も効率良く収音した追尾音声信号を出力することができる。
 そして、以上のような構成および処理を行うことで、子機10A~子機10Eによって、マイクロホンの収音信号による第1段の音源追尾が行われ、ホスト装置1によって、各子機10A~子機10Eの子機音声信号による第2段の音源追尾が行われる。これにより、複数の子機10A~子機10Eの複数のマイクロホンMICa~マイクロホンMICmによる、音源追尾を実現することができる。したがって、子機10A~子機10Eの個数、および配置パターンを適宜設定することで、収音範囲の大きさや、話者等の音源位置に影響されることなく、確実に音源追尾を行うことができる。このため、音源の位置に依存することなく、音源からの音声を高品質に収音することができる。
 さらに、子機10A~子機10Eが送信する音声信号数は、子機に装着されるマイクロホンの本数に依存することなく、1つである。したがって、全てのマイクロホンの収音信号を、ホスト装置に送信するよりも、通信データ量を軽減することができる。例えば、各子機に装着されるマイクロホンの本数がm本の場合、各子機からホスト装置に送信される音声データ数は、全ての収音信号をホスト装置に送信する場合の(1/m)となる。
 このように本実施形態の構成および処理を用いることで、全ての収音信号をホスト装置に送信する場合と同じ音源追尾精度を有しながら、通信負荷を軽減することができる。これにより、よりリアルタイムな音源追尾が可能になる。
 図18は本発明の実施形態に係る子機の音源追尾処理のフローチャートである。以下、一台の子機の処理フローを説明するが、複数の子機は同じフローの処理を実行する。また、詳細な処理の内容は、上述の記載されているものであるので、以下では詳細な説明を省略する。
 子機は、各マイクロホンで収音し、収音信号を生成する(S101)。子機は、各マイクロホンの収音信号のレベルを検出する(S102)。子機は、最大パワーの収音信号を検出し、当該最大パワーの収音信号のレベル情報を生成する(S103)。
 子機は、各収音信号に対するゲイン係数を決定する(S104)。具体的には、子機は、最大パワーの収音信号のゲインを「1」に設定し、それ以外の収音信号のゲインを「0」に設定する。
 子機は、決定したゲイン係数で各収音信号を増幅処理する(S105)。子機は、増幅後の収音信号を合成し、子機音声信号を生成する(S106)。
 子機は、子機音声信号をAGC処理し(S107)、AGC処理後の子機音声信号とレベル情報を含む子機データを生成して、ホスト装置に出力する(S108)。
 図19は本発明の実施形態に係るホスト装置の音源追尾処理のフローチャートである。また、詳細な処理の内容は、上述の記載されているものであるので、以下では詳細な説明を省略する。
 ホスト装置1は、各子機から子機データを受信して、子機音声信号とレベル情報を取得する(S201)。ホスト装置1は、各子機からのレベル情報を比較し、最大レベルの子機音声信号を検出する(S202)。
 ホスト装置1は、各子機音声信号に対するゲイン係数を決定する(S203)。具体的には、ホスト装置1は、最大レベルの子機音声信号のゲインを「1」に設定し、それ以外の子機音声信号のゲインを「0」に設定する。
 ホスト装置1は、決定したゲイン係数で各子機音声信号を増幅処理する(S204)。ホスト装置1は、増幅後の子機音声信号を合成し、追尾音声信号を生成する(S205)。
 なお、上述の説明では、最大パワーの収音信号が切り替わるタイミングで、元最大パワーの収音信号のゲイン係数を「1」から「0」に設定し、新たな最大パワーの収音信号のゲイン係数を「0」から「1」に切り替えるようにした。しかしながら、これらのゲイン係数を、より詳細な段階的に変化させるようにしてもよい。例えば、元最大パワーの収音信号のゲイン係数を「1」から「0」になるように徐々に低下させ、新たな最大パワーの収音信号のゲイン係数を「0」から「1」になるように徐々に増加させる。すなわち、元最大パワーの収音信号から、新たな最大パワーの収音信号にクロスフェード処理を行うようにしてもよい。この際、これらのゲイン係数の和は「1」となるようにする。
 そして、このようなクロスフェード処理は、子機で行われる収音信号の合成のみでなく、ホスト装置1で行われる子機音声信号の合成に適用してもよい。
 また、上述の説明では、AGCを各子機10A~子機10Eに設ける例を示したが、ホスト装置1に設けてもよい。この場合、ホスト装置1の通信I/F11でAGCを行えばよい。
 なお、ホスト装置1は、図20のフローチャートに示すように、スピーカ102から各子機に向けて試験用音波を発して各子機に当該試験用音波のレベルを判定させることも可能である。
 まず、ホスト装置1は、子機の起動状態を検知すると(S51)、不揮発性メモリ14からレベル判定用プログラムを読み出し(S52)、通信I/F11を介して各子機に送信する(S53)。このとき、ホスト装置1のCPU12は、レベル判定用プログラムを一定の単位ビットデータに分割し、単位ビットデータを各子機が受け取る順に配列したシリアルデータを作成して、子機へ送信する。
 各子機は、ホスト装置1から送信されたレベル判定用プログラムを受信する(S71)。レベル判定用プログラムは、揮発性メモリ23Aに一時記憶する(S72)。このとき、各子機は、シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した単位ビットデータを一時記憶する。そして、各子機は、一時記憶した単位ビットデータを結合し、結合したレベル判定用プログラムを実行する(S73)。これにより、音声信号処理部24は、図15に示した構成を実現する。ただし、レベル判定用プログラムは、レベル判定を行うだけであり、子機音声信号Sm10Aを生成して送信する必要はないため、増幅器11a~増幅器11m、係数決定部120、合成部130、およびAGC140の構成は不要である。
 そして、ホスト装置1は、レベル判定用プログラムを送信してから所定時間経過後に試験用音波を発する(S54)。各子機の係数決定部220は、音声レベル判定手段として機能し、複数のマイクロホンMICa~マイクロホンMICmに入力された試験用音波のレベルを判定する(S74)。係数決定部220は、判定結果となるレベル情報(レベルデータ)をホスト装置1に送信する(S75)。レベルデータは、複数のマイクロホンMICa~マイクロホンMICmそれぞれについて送信してもよいし、子機毎に最大レベルを示したレベルデータのみを送信してもよい。なお、レベルデータは、一定の単位ビットデータに分割して上位に接続された子機に送信されることにより、各子機が協同してレベル判定用シリアルデータを作成することになる。
 次に、ホスト装置1は、各子機からレベルデータを受信する(S55)。ホスト装置1は、受信したレベルデータに基づいて、各子機に送信すべき音声信号処理プログラムを選択し、これらプログラムを不揮発性メモリ14から読み出す(s56)。例えば、試験用音波のレベルが高い子機は、エコーのレベルが高いと判断し、エコーキャンセラのプログラムを選択する。また、試験用音波のレベルが低い子機は、エコーのレベルが低いと判断し、ノイズキャンセラのプログラムを選択する。そして、ホスト装置1は、読み出した音声信号処理プログラムを各子機に送信する(s57)。以後の処理は、図11に示したフローチャートと同じであるため、説明を省略する。
 なお、ホスト装置1は、受信したレベルデータに基づいてエコーキャンセラのプログラムにおける各子機のフィルタ係数の数を変更し、各子機へフィルタ係数の数を変更するための変更パラメータを定めてもよい。例えば、試験用音波のレベルが高い子機にはタップ数を増加し、試験用音波のレベルが低い子機にはタップ数を減少する。この場合、ホスト装置1は、この変更パラメータを一定の単位ビットデータに分割して、単位ビットデータを各子機が受け取る順に配列した変更パラメータ用シリアルデータを作成し、各子機へ送信する。
 なお、エコーキャンセラは、各子機における複数のマイクロホンMICa~マイクロホンMICmのそれぞれについて備える態様とすることも可能である。この場合、各子機の係数決定部220は、複数のマイクロホンMICa~マイクロホンMICmのそれぞれについてレベルデータを送信する。
 また、上述のレベル情報IFo10A~レベル情報IFo10Eには、各子機におけるマイクロホンの識別情報が含まれていてもよい。
 この場合、図21に示すように、子機は、最大パワーの収音信号を検出し、当該最大パワーの収音信号のレベル情報を生成したとき(S801)、最大パワーが検出されたマイクロホンの識別情報をレベル情報に含めて送信する(S802)。
 そして、ホスト装置1は、各子機からレベル情報を受信し(S901)、最大レベルとなるレベル情報を選択したときに、当該選択されたレベル情報に含まれているマイクロホンの識別情報に基づいて当該マイクロホンを特定することで、使用されているエコーキャンセラを特定する(S902)。ホスト装置1は、特定されたエコーキャンセラを使用している子機に対して、当該エコーキャンセラに関係する各信号の送信リクエストを行う(S903)。
 そして、子機は、送信リクエストを受信した場合(S803)、ホスト装置1に対して、指定されたエコーキャンセラから擬似回帰音信号、収音信号NE1(前段のエコーキャンセラによりエコー成分が除去される前の収音信号)、および収音信号NE1’(前段のエコーキャンセラによりエコー成分が除去された後の収音信号)の各信号を送信する(S804)。
 ホスト装置1は、これら各信号を受信し(S904)、受信した各信号をエコーサプレッサに入力する(S905)。これにより、エコーサプレッサのエコー生成部125には、特定されたエコーキャンセラの学習進捗度に応じた係数が設定されるため、適切な残留エコー成分を生成することができる。
 なお、図22に示すように、進捗度算出部124は、音声信号処理部24A側に設ける態様とすることも可能である。この場合、ホスト装置1は、図21のS903において、特定したエコーキャンセラを使用している子機に対して、学習進捗度に応じて変化する係数の送信をリクエストする。子機は、S804において、進捗度算出部124で算出される係数を読み出し、ホスト装置1に送信する。エコー生成部125では、受信した係数および擬似回帰音信号に応じて残留エコー成分が生成される。
 次に、図23は、ホスト装置および子機の配置に関する変形例を示した図である。図23(A)は、図12に示した接続態様と同じであるが、子機10Cがホスト装置1に最も遠く、子機10Eがホスト装置1に最も近くなる例を示している。すなわち、子機10Cおよび子機10Dを接続するケーブル361が曲げられて子機10Dおよび子機10Eがホスト装置1に近づくようになっている。
 一方、図23(B)の例では、子機10Cがケーブル331を介してホスト装置1に接続されている。この場合、子機10Cは、ホスト装置1から送信されたデータを分岐して子機10Bおよび子機10Dに送信する。また、子機10Cは、子機10Bから送信されたデータと、子機10Dから送信されたデータと、自装置のデータと、をまとめてホスト装置1に送信する。この場合も、直列接続された複数の子機のいずれか1つにホスト装置が接続されていることになる。
 本発明を詳細にまた特定の実施態様を参照して説明してきたが、本発明の精神、範囲または意図の範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本発明は、2012年11月12日出願の日本特許出願(特願2012-248158)、2012年11月13日出願の日本特許出願(特願2012-249607)、及び2012年11月13日出願の日本特許出願(特願2012-249609)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明の信号処理システムの構成によれば、端末(マイクユニット)には予め動作用のプログラムを内蔵せず、ホスト装置からプログラムを受信して、一時記憶メモリに一時記憶してから動作を行うため、マイクユニット側に予め多数のプログラムを記憶させておく必要がない。また、新たな機能を追加する場合に、各マイクユニットのプログラム書き換え処理は不要であり、ホスト装置側の不揮発性メモリに記憶されているプログラムを変更するだけで、新たな機能を実現することができる。
1…ホスト装置
2A,2B,2C,2D,2E…マイクユニット
11…通信I/F
12…CPU
13…RAM
14…不揮発性メモリ
21A…通信I/F
22A…DSP
23A…揮発性メモリ
24A…音声信号処理部
25A…マイク

Claims (7)

  1.  直列接続された複数のマイクユニットと、当該複数のマイクユニットの1つに接続されるホスト装置と、を備えた信号処理システムであって、
     各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備え、
     前記ホスト装置は、前記マイクユニット用の音声処理プログラムを記憶した不揮発性メモリを備え、
     前記ホスト装置が、前記不揮発性メモリから読み出した前記音声処理プログラムを前記各マイクユニットへ送信し、
     前記各マイクユニットは、前記一時記憶用メモリに前記音声処理プログラムを一時記憶し、
     前記処理部は、前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする信号処理システム。
  2.  前記ホスト装置は、前記音声処理プログラムを一定の単位ビットデータに分割し、前記単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成し、前記シリアルデータを前記各マイクユニットへ送信し、
     前記各マイクユニットは、前記シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した前記単位ビットデータを一時記憶し、
     前記処理部は、前記単位ビットデータを結合した音声処理プログラムに応じた処理を行う請求項1に記載の信号処理システム。
  3.  前記各マイクユニットは、前記処理後の音声を一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットは協同して送信用シリアルデータを作成し、前記ホスト装置に送信することを特徴とする請求項1または請求項2に記載の信号処理システム。
  4.  前記マイクユニットは、異なる収音方向を有する複数のマイクロホンと、音声レベル判定手段とを有し、
     前記ホスト装置は、スピーカを有し、
     該スピーカから各マイクユニットに向けて試験用音波を発し、
     各マイクユニットは、前記複数のマイクロホンに入力された前記試験用音波のレベルを判定し、判定結果となるレベルデータを一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットが協同してレベル判定用シリアルデータを作成する請求項1乃至請求項3のいずれかに記載の信号処理システム。
  5.  前記音声処理プログラムは、フィルタ係数が更新されるエコーキャンセラを実現するためのエコーキャンセルプログラムからなり、該エコーキャンセルプログラムは前記フィルタ係数の数を決めるフィルタ係数設定部を有し、
     前記ホスト装置は、各マイクユニットから受けとったレベルデータに基づいて各マイクユニットのフィルタ係数の数を変更し、各マイクユニットへフィルタ係数の数を変更するための変更パラメータを定め、該変更パラメータを一定の単位ビットデータに分割して、前記単位ビットデータを各マイクユニットが受け取る順に配列した変更パラメータ用シリアルデータを作成し、前記各マイクユニットへ前記変更パラメータ用シリアルデータを送信する請求項1乃至請求項4のいずれかに記載の信号処理システム。
  6.  前記音声処理プログラムは、前記エコーキャンセルプログラムまたはノイズ成分を除去するノイズキャンセルプログラムであり、
     前記ホスト装置は、前記レベルデータから各マイクユニットへ送信するプログラムを前記エコーキャンセルプログラムまたは前記ノイズキャンセルプログラムのいずれかに定めることを特徴とする請求項5に記載の信号処理システム。
  7.  直列接続された複数のマイクユニットと、当該複数のマイクユニットの1つに接続されるホスト装置と、を備えた信号処理装置のための信号処理方法であって、各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備え、前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備え、
     当該信号処理方法は、
    前記ホスト装置の起動状態を検知すると、前記不揮発性メモリから前記音声処理プログラムを読み出し、該音声処理プログラムを前記ホスト装置から前記各マイクユニットへ送信し、
     前記音声処理プログラムを前記各マイクユニットの前記一時記憶用メモリに一時記憶し、
     前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信する、
    ことを特徴とする信号処理方法。
PCT/JP2013/080587 2012-11-12 2013-11-12 信号処理システムおよび信号処理方法 WO2014073704A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020157001712A KR101706133B1 (ko) 2012-11-12 2013-11-12 신호 처리 시스템 및 신호 처리 방법
EP19177298.7A EP3557880B1 (en) 2012-11-12 2013-11-12 Signal processing system and signal processing method
AU2013342412A AU2013342412B2 (en) 2012-11-12 2013-11-12 Signal processing system and signal processing method
EP13853867.3A EP2882202B1 (en) 2012-11-12 2013-11-12 Sound signal processing host device, signal processing system, and signal processing method
KR1020177002958A KR20170017000A (ko) 2012-11-12 2013-11-12 신호 처리 시스템 및 신호 처리 방법
EP21185333.8A EP3917161B1 (en) 2012-11-12 2013-11-12 Signal processing system and signal processing method

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2012-248158 2012-11-12
JP2012248158 2012-11-12
JP2012-249607 2012-11-13
JP2012249609 2012-11-13
JP2012-249609 2012-11-13
JP2012249607 2012-11-13

Publications (1)

Publication Number Publication Date
WO2014073704A1 true WO2014073704A1 (ja) 2014-05-15

Family

ID=50681709

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/080587 WO2014073704A1 (ja) 2012-11-12 2013-11-12 信号処理システムおよび信号処理方法

Country Status (8)

Country Link
US (3) US9497542B2 (ja)
EP (3) EP2882202B1 (ja)
JP (5) JP6090121B2 (ja)
KR (2) KR20170017000A (ja)
CN (2) CN107172538B (ja)
AU (1) AU2013342412B2 (ja)
CA (1) CA2832848A1 (ja)
WO (1) WO2014073704A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220201125A1 (en) * 2017-09-29 2022-06-23 Dolby Laboratories Licensing Corporation Howl detection in conference systems

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9699550B2 (en) 2014-11-12 2017-07-04 Qualcomm Incorporated Reduced microphone power-up latency
US9407989B1 (en) 2015-06-30 2016-08-02 Arthur Woodrow Closed audio circuit
JP6443554B2 (ja) * 2015-08-24 2018-12-26 ヤマハ株式会社 収音装置および収音方法
US10014137B2 (en) 2015-10-03 2018-07-03 At&T Intellectual Property I, L.P. Acoustical electrical switch
US9704489B2 (en) * 2015-11-20 2017-07-11 At&T Intellectual Property I, L.P. Portable acoustical unit for voice recognition
WO2017132958A1 (en) * 2016-02-04 2017-08-10 Zeng Xinxiao Methods, systems, and media for voice communication
DE102016113831A1 (de) * 2016-07-27 2018-02-01 Neutrik Ag Verkabelungsanordnung
US10387108B2 (en) * 2016-09-12 2019-08-20 Nureva, Inc. Method, apparatus and computer-readable media utilizing positional information to derive AGC output parameters
US10362412B2 (en) * 2016-12-22 2019-07-23 Oticon A/S Hearing device comprising a dynamic compressive amplification system and a method of operating a hearing device
CN106782584B (zh) * 2016-12-28 2023-11-07 北京地平线信息技术有限公司 音频信号处理设备、方法和电子设备
KR101898798B1 (ko) * 2017-01-10 2018-09-13 순천향대학교 산학협력단 다이버시티 기술을 적용한 주차보조용 초음파센서 시스템
CN106937009B (zh) * 2017-01-18 2020-02-07 苏州科达科技股份有限公司 一种级联回声抵消系统及其控制方法及装置
JP7051876B6 (ja) * 2017-01-27 2023-08-18 シュアー アクイジッション ホールディングス インコーポレイテッド アレイマイクロホンモジュール及びシステム
EP3641141A4 (en) * 2017-06-12 2021-02-17 Audio-Technica Corporation VOICE SIGNAL PROCESSING DEVICE, VOICE SIGNAL PROCESSING METHOD AND VOICE SIGNAL PROCESSING PROGRAM
JP2019047148A (ja) * 2017-08-29 2019-03-22 沖電気工業株式会社 多重化装置、多重化方法およびプログラム
JP6983583B2 (ja) * 2017-08-30 2021-12-17 キヤノン株式会社 音響処理装置、音響処理システム、音響処理方法、及びプログラム
CN107818793A (zh) * 2017-11-07 2018-03-20 北京云知声信息技术有限公司 一种可减少无用语音识别的语音采集处理方法及装置
CN107750038B (zh) * 2017-11-09 2020-11-10 广州视源电子科技股份有限公司 音量调节方法、装置、设备及存储介质
CN107898457B (zh) * 2017-12-05 2020-09-22 江苏易格生物科技有限公司 一种团体无线脑电采集装置间时钟同步的方法
US11336999B2 (en) 2018-03-29 2022-05-17 Sony Corporation Sound processing device, sound processing method, and program
CN110611537A (zh) * 2018-06-15 2019-12-24 杜旭昇 利用声波传送数据的广播系统
JP7158480B2 (ja) * 2018-07-20 2022-10-21 株式会社ソニー・インタラクティブエンタテインメント 音声信号処理システム、及び音声信号処理装置
CN111114475A (zh) * 2018-10-30 2020-05-08 北京轩辕联科技有限公司 用于车辆的mic切换装置及方法
JP7373947B2 (ja) * 2018-12-12 2023-11-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音響エコーキャンセル装置、音響エコーキャンセル方法及び音響エコーキャンセルプログラム
CN109803059A (zh) * 2018-12-17 2019-05-24 百度在线网络技术(北京)有限公司 音频处理方法和装置
KR102602942B1 (ko) * 2019-01-07 2023-11-16 삼성전자 주식회사 오디오 정보 처리 장치의 위치에 기반하여 오디오 처리 알고리즘을 결정하는 전자 장치 및 방법
US11190871B2 (en) 2019-01-29 2021-11-30 Nureva, Inc. Method, apparatus and computer-readable media to create audio focus regions dissociated from the microphone system for the purpose of optimizing audio processing at precise spatial locations in a 3D space
CN110035372B (zh) * 2019-04-24 2021-01-26 广州视源电子科技股份有限公司 扩声系统的输出控制方法、装置、扩声系统及计算机设备
JP7484105B2 (ja) 2019-08-26 2024-05-16 大日本印刷株式会社 チャック付き紙容器、その製造方法
CN110677777B (zh) * 2019-09-27 2020-12-08 深圳市航顺芯片技术研发有限公司 一种音频数据处理方法、终端及存储介质
CN110830749A (zh) * 2019-12-27 2020-02-21 深圳市创维群欣安防科技股份有限公司 一种视频通话回音消除电路、方法及会议平板
JP7365642B2 (ja) * 2020-03-18 2023-10-20 パナソニックIpマネジメント株式会社 音声処理システム、音声処理装置及び音声処理方法
CN111741404B (zh) * 2020-07-24 2021-01-22 支付宝(杭州)信息技术有限公司 拾音设备、拾音系统和声音信号采集的方法
CN113068103B (zh) * 2021-02-07 2022-09-06 厦门亿联网络技术股份有限公司 一种音频配件级联系统
EP4231663A4 (en) 2021-03-12 2024-05-08 Samsung Electronics Co., Ltd. ELECTRONIC AUDIO INPUT DEVICE AND OPERATING METHOD THEREFOR
CN114257908A (zh) * 2021-04-06 2022-03-29 北京安声科技有限公司 耳机的通话降噪方法及装置、计算机可读存储介质及耳机
CN114257921A (zh) * 2021-04-06 2022-03-29 北京安声科技有限公司 拾音方法及装置、计算机可读存储介质及耳机
CN113411719B (zh) * 2021-06-17 2022-03-04 杭州海康威视数字技术股份有限公司 一种麦克风级联系统、麦克风及终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983988A (ja) * 1995-09-11 1997-03-28 Nec Eng Ltd テレビ会議システム
JPH10276415A (ja) 1997-01-28 1998-10-13 Casio Comput Co Ltd テレビ電話装置
JP2002190870A (ja) * 2000-12-20 2002-07-05 Audio Technica Corp 赤外線双方向通信システム
JP2004242207A (ja) 2003-02-07 2004-08-26 Matsushita Electric Works Ltd インターホンシステム
WO2006054778A1 (ja) * 2004-11-17 2006-05-26 Nec Corporation 通信システム、通信端末装置、サーバ装置及びそれらに用いる通信方法並びにそのプログラム
JP2006140930A (ja) * 2004-11-15 2006-06-01 Sony Corp マイクシステムおよびマイク装置
JP2008147823A (ja) * 2006-12-07 2008-06-26 Yamaha Corp 音声会議装置、音声会議システムおよび放収音ユニット

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596394U (ja) 1982-07-06 1984-01-17 株式会社東芝 会議用マイクロホン装置
JPH0657031B2 (ja) 1986-04-18 1994-07-27 日本電信電話株式会社 会議通話装置
EP0310456A3 (en) * 1987-10-01 1990-12-05 Sony Magnescale, Inc. Improvements in audio mixing
JPH0262606A (ja) * 1988-08-29 1990-03-02 Fanuc Ltd Cncの診断方式
JP2562703B2 (ja) 1989-12-27 1996-12-11 株式会社小松製作所 直列制御装置のデータ入力制御装置
JPH04291873A (ja) 1991-03-20 1992-10-15 Fujitsu Ltd 電話会議システム
US5664021A (en) * 1993-10-05 1997-09-02 Picturetel Corporation Microphone system for teleconferencing system
US5966639A (en) * 1997-04-04 1999-10-12 Etymotic Research, Inc. System and method for enhancing speech intelligibility utilizing wireless communication
JP2000115373A (ja) * 1998-10-05 2000-04-21 Nippon Telegr & Teleph Corp <Ntt> 電話装置
US6785394B1 (en) * 2000-06-20 2004-08-31 Gn Resound A/S Time controlled hearing aid
JP2002043985A (ja) * 2000-07-25 2002-02-08 Matsushita Electric Ind Co Ltd 音響エコーキャンセラー装置
JP3075809U (ja) * 2000-08-23 2001-03-06 新世代株式会社 カラオケ用マイク
US20030120367A1 (en) * 2001-12-21 2003-06-26 Chang Matthew C.T. System and method of monitoring audio signals
JP2004128707A (ja) * 2002-08-02 2004-04-22 Sony Corp 指向性を備えた音声受信装置およびその方法
JP4104626B2 (ja) 2003-02-07 2008-06-18 日本電信電話株式会社 収音方法及び収音装置
EP1482763A3 (en) * 2003-05-26 2008-08-13 Matsushita Electric Industrial Co., Ltd. Sound field measurement device
US7496205B2 (en) * 2003-12-09 2009-02-24 Phonak Ag Method for adjusting a hearing device as well as an apparatus to perform the method
KR100662187B1 (ko) 2004-03-15 2006-12-27 오므론 가부시키가이샤 센서 컨트롤러
JP2006048632A (ja) * 2004-03-15 2006-02-16 Omron Corp センサコントローラ
JP3972921B2 (ja) 2004-05-11 2007-09-05 ソニー株式会社 音声集音装置とエコーキャンセル処理方法
CN1780495A (zh) * 2004-10-25 2006-05-31 宝利通公司 顶蓬麦克风组件
JP4258472B2 (ja) * 2005-01-27 2009-04-30 ヤマハ株式会社 拡声システム
US7995768B2 (en) 2005-01-27 2011-08-09 Yamaha Corporation Sound reinforcement system
JP4818014B2 (ja) 2005-07-28 2011-11-16 株式会社東芝 信号処理装置
US8335311B2 (en) 2005-07-28 2012-12-18 Kabushiki Kaisha Toshiba Communication apparatus capable of echo cancellation
US8577048B2 (en) * 2005-09-02 2013-11-05 Harman International Industries, Incorporated Self-calibrating loudspeaker system
JP4701931B2 (ja) * 2005-09-02 2011-06-15 日本電気株式会社 信号処理の方法及び装置並びにコンピュータプログラム
JP2007174011A (ja) 2005-12-20 2007-07-05 Yamaha Corp 収音装置
JP4929740B2 (ja) 2006-01-31 2012-05-09 ヤマハ株式会社 音声会議装置
US20070195979A1 (en) * 2006-02-17 2007-08-23 Zounds, Inc. Method for testing using hearing aid
US8381103B2 (en) 2006-03-01 2013-02-19 Yamaha Corporation Electronic device
JP4844170B2 (ja) 2006-03-01 2011-12-28 ヤマハ株式会社 電子装置
CN1822709B (zh) * 2006-03-24 2011-11-23 北京中星微电子有限公司 一种麦克风回声消除系统
JP4816221B2 (ja) 2006-04-21 2011-11-16 ヤマハ株式会社 収音装置および音声会議装置
JP2007334809A (ja) * 2006-06-19 2007-12-27 Mitsubishi Electric Corp モジュール型電子機器
JP5012387B2 (ja) 2007-10-05 2012-08-29 ヤマハ株式会社 音声処理システム
JP2009188858A (ja) * 2008-02-08 2009-08-20 National Institute Of Information & Communication Technology 音声出力装置、音声出力方法、及びプログラム
JP4508249B2 (ja) * 2008-03-04 2010-07-21 ソニー株式会社 受信装置および受信方法
EP2327015B1 (en) * 2008-09-26 2018-09-19 Sonova AG Wireless updating of hearing devices
JP5251731B2 (ja) 2009-05-29 2013-07-31 ヤマハ株式会社 ミキシングコンソールおよびプログラム
US20110013786A1 (en) 2009-06-19 2011-01-20 PreSonus Audio Electronics Inc. Multichannel mixer having multipurpose controls and meters
US8204198B2 (en) * 2009-06-19 2012-06-19 Magor Communications Corporation Method and apparatus for selecting an audio stream
JP5452158B2 (ja) * 2009-10-07 2014-03-26 株式会社日立製作所 音響監視システム、及び音声集音システム
US8792661B2 (en) * 2010-01-20 2014-07-29 Audiotoniq, Inc. Hearing aids, computing devices, and methods for hearing aid profile update
US8615091B2 (en) * 2010-09-23 2013-12-24 Bose Corporation System for accomplishing bi-directional audio data and control communications
EP2442587A1 (en) * 2010-10-14 2012-04-18 Harman Becker Automotive Systems GmbH Microphone link system
US8670853B2 (en) * 2010-11-19 2014-03-11 Fortemedia, Inc. Analog-to-digital converter, sound processing device, and analog-to-digital conversion method
JP2012129800A (ja) * 2010-12-15 2012-07-05 Sony Corp 情報理装置および方法、プログラム、並びに情報処理システム
JP2012234150A (ja) * 2011-04-18 2012-11-29 Sony Corp 音信号処理装置、および音信号処理方法、並びにプログラム
CN102324237B (zh) * 2011-05-30 2013-01-02 深圳市华新微声学技术有限公司 麦克风阵列语音波束形成方法、语音信号处理装置及系统
JP5789130B2 (ja) 2011-05-31 2015-10-07 株式会社コナミデジタルエンタテインメント 管理装置
JP5701692B2 (ja) 2011-06-06 2015-04-15 株式会社前川製作所 食鳥屠体の首皮取り装置及び方法
JP2012249609A (ja) 2011-06-06 2012-12-20 Kahuka 21:Kk 害獣類侵入防止具
JP2013102370A (ja) * 2011-11-09 2013-05-23 Sony Corp ヘッドホン装置、端末装置、情報送信方法、プログラム、ヘッドホンシステム
JP2013110585A (ja) 2011-11-21 2013-06-06 Yamaha Corp 音響機器
WO2013079993A1 (en) * 2011-11-30 2013-06-06 Nokia Corporation Signal processing for audio scene rendering
US20130177188A1 (en) * 2012-01-06 2013-07-11 Audiotoniq, Inc. System and method for remote hearing aid adjustment and hearing testing by a hearing health professional
US9204174B2 (en) * 2012-06-25 2015-12-01 Sonos, Inc. Collecting and providing local playback system information
US20140126740A1 (en) * 2012-11-05 2014-05-08 Joel Charles Wireless Earpiece Device and Recording System
US9391580B2 (en) * 2012-12-31 2016-07-12 Cellco Paternership Ambient audio injection
US9356567B2 (en) * 2013-03-08 2016-05-31 Invensense, Inc. Integrated audio amplification circuit with multi-functional external terminals

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0983988A (ja) * 1995-09-11 1997-03-28 Nec Eng Ltd テレビ会議システム
JPH10276415A (ja) 1997-01-28 1998-10-13 Casio Comput Co Ltd テレビ電話装置
JP2002190870A (ja) * 2000-12-20 2002-07-05 Audio Technica Corp 赤外線双方向通信システム
JP2004242207A (ja) 2003-02-07 2004-08-26 Matsushita Electric Works Ltd インターホンシステム
JP2006140930A (ja) * 2004-11-15 2006-06-01 Sony Corp マイクシステムおよびマイク装置
WO2006054778A1 (ja) * 2004-11-17 2006-05-26 Nec Corporation 通信システム、通信端末装置、サーバ装置及びそれらに用いる通信方法並びにそのプログラム
JP2008147823A (ja) * 2006-12-07 2008-06-26 Yamaha Corp 音声会議装置、音声会議システムおよび放収音ユニット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2882202A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220201125A1 (en) * 2017-09-29 2022-06-23 Dolby Laboratories Licensing Corporation Howl detection in conference systems
US11677879B2 (en) * 2017-09-29 2023-06-13 Dolby Laboratories Licensing Corporation Howl detection in conference systems

Also Published As

Publication number Publication date
JP6299895B2 (ja) 2018-03-28
JP6330936B2 (ja) 2018-05-30
CN103813239B (zh) 2017-07-11
CN103813239A (zh) 2014-05-21
JP6090120B2 (ja) 2017-03-08
EP2882202A1 (en) 2015-06-10
KR20170017000A (ko) 2017-02-14
CN107172538B (zh) 2020-09-04
US11190872B2 (en) 2021-11-30
EP3557880B1 (en) 2021-09-22
AU2013342412B2 (en) 2015-12-10
CA2832848A1 (en) 2014-05-12
JP2014116931A (ja) 2014-06-26
JP2014116932A (ja) 2014-06-26
US20160381457A1 (en) 2016-12-29
US9497542B2 (en) 2016-11-15
AU2013342412A1 (en) 2015-01-22
JP2014116930A (ja) 2014-06-26
KR101706133B1 (ko) 2017-02-13
EP2882202B1 (en) 2019-07-17
US20140133666A1 (en) 2014-05-15
EP3917161B1 (en) 2024-01-31
US10250974B2 (en) 2019-04-02
JP6090121B2 (ja) 2017-03-08
EP3917161A1 (en) 2021-12-01
EP3557880A1 (en) 2019-10-23
JP2017139767A (ja) 2017-08-10
EP2882202A4 (en) 2016-03-16
JP2017108441A (ja) 2017-06-15
CN107172538A (zh) 2017-09-15
US20190174227A1 (en) 2019-06-06
KR20150022013A (ko) 2015-03-03

Similar Documents

Publication Publication Date Title
JP6299895B2 (ja) マイクユニット、ホスト装置、および信号処理システム
JP5003531B2 (ja) 音声会議システム
JP4946090B2 (ja) 収音放音一体型装置
KR101248971B1 (ko) 방향성 마이크 어레이를 이용한 신호 분리시스템 및 그 제공방법
JP4701962B2 (ja) 回帰音除去装置
CN100525101C (zh) 使用波束形成算法来记录信号的方法和设备
KR20120101457A (ko) 오디오 줌
WO2005125272A1 (ja) ハウリング抑圧装置、プログラム、集積回路、およびハウリング抑圧方法
JP2010268129A (ja) 電話装置、エコーキャンセラ及びエコーキャンセルプログラム
US9318096B2 (en) Method and system for active noise cancellation based on remote noise measurement and supersonic transport
US6996240B1 (en) Loudspeaker unit adapted to environment
KR20200007793A (ko) 음성 출력 제어 장치, 음성 출력 제어 방법, 그리고 프로그램
CN112509595A (zh) 音频数据处理方法、系统及存储介质
JP4655905B2 (ja) 回帰音除去装置
JP2010221945A (ja) 信号処理方法、装置及びプログラム
KR20230057333A (ko) 휴대용 노래방을 위한 저복잡도 하울링 억제

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13853867

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2013853867

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013342412

Country of ref document: AU

Date of ref document: 20131112

Kind code of ref document: A

Ref document number: 20157001712

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE