JP2014116930A - Signal processing system and signal processing method - Google Patents
Signal processing system and signal processing method Download PDFInfo
- Publication number
- JP2014116930A JP2014116930A JP2013233692A JP2013233692A JP2014116930A JP 2014116930 A JP2014116930 A JP 2014116930A JP 2013233692 A JP2013233692 A JP 2013233692A JP 2013233692 A JP2013233692 A JP 2013233692A JP 2014116930 A JP2014116930 A JP 2014116930A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- microphone
- host device
- signal
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/02—Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2410/00—Microphones
- H04R2410/01—Noise reduction using microphones having different directional characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2410/00—Microphones
- H04R2410/05—Noise reduction with a separate noise microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/12—Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Circuit For Audible Band Transducer (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Telephone Function (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Description
この発明は、マイクユニットと、当該マイクユニットに接続されるホスト装置と、からなる信号処理システムに関する。 The present invention relates to a signal processing system including a microphone unit and a host device connected to the microphone unit.
従来、通信会議システムでは、通信先に応じてエコーキャンセル用のプログラムを選択できるように、複数のプログラムを記憶しておく装置が提案されている。 Conventionally, in a teleconference system, an apparatus for storing a plurality of programs has been proposed so that an echo cancellation program can be selected according to a communication destination.
例えば、特許文献1の装置では、通信先に応じてタップ長を変更する構成となっている。
For example, the apparatus of
また、特許文献2のテレビ電話装置では、本体に設けられたディップスイッチを切り替えることで、用途毎に異なるプログラムを読み出すものである。
Further, in the videophone device of
しかし、特許文献1、2の装置では、想定される使用態様に応じて複数のプログラムを予め記憶しておかなければならない。仮に新たな機能を追加する場合にはプログラムを書き換える必要があり、特に端末数が増えた場合には問題となる。
However, in the devices of
そこで、この発明は、予め複数のプログラムを記憶させておく必要がない信号処理システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a signal processing system that does not require a plurality of programs to be stored in advance.
本発明の信号処理システムは、マイクユニットと、当該マイクユニットの1つに接続されるホスト装置と、を備えた信号処理システムである。前記マイクユニットは、音声を収音するマイクと、一時記憶メモリと、前記マイクが収音した音声を処理する処理部と、を備えている。前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備えている。そして、本発明の信号処理システムは、前記ホスト装置が、前記不揮発性メモリから前記音声処理プログラムを前記マイクユニットの一時記憶メモリに送信し、前記マイクユニットが、前記一時記憶メモリに前記音声処理プログラムを一時記憶し、前記処理部は、前記一時記憶メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする。 The signal processing system of the present invention is a signal processing system including a microphone unit and a host device connected to one of the microphone units. The microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone. The host device includes a non-volatile memory that holds an audio processing program for the microphone unit. In the signal processing system of the present invention, the host device transmits the audio processing program from the nonvolatile memory to the temporary storage memory of the microphone unit, and the microphone unit stores the audio processing program in the temporary storage memory. The processing unit performs processing according to a voice processing program temporarily stored in the temporary storage memory, and transmits the processed voice to the host device.
このように、本発明の信号処理システムでは、端末(マイクユニット)には予め動作用のプログラムを内蔵せず、ホスト装置からプログラムを受信して、一時記憶メモリに一時記憶してから動作を行うため、マイクユニット側に予め多数のプログラムを記憶させておく必要がない。また、新たな機能を追加する場合に、各マイクユニットのプログラム書き換え処理は不要であり、ホスト装置側の不揮発性メモリに記憶されているプログラムを変更するだけで、新たな機能を実現することができる。 As described above, in the signal processing system of the present invention, the terminal (microphone unit) does not have a built-in operation program in advance, and receives the program from the host device and temporarily stores it in the temporary storage memory before performing the operation. Therefore, it is not necessary to store a large number of programs in advance on the microphone unit side. In addition, when a new function is added, the program rewriting process for each microphone unit is unnecessary, and a new function can be realized only by changing the program stored in the nonvolatile memory on the host device side. it can.
なお、マイクユニットを複数接続する場合、全てのマイクユニットに同じプログラムを実行させてもよいが、マイクユニット毎に個別のプログラムを実行させることも可能である。 When a plurality of microphone units are connected, the same program may be executed by all the microphone units, but individual programs may be executed for each microphone unit.
例えば、ホスト装置にスピーカが存在した場合において、最もホスト装置に近いマイクユニットにはエコーキャンセラのプログラムを実行させ、ホスト装置から遠いマイクユニットにはノイズキャンセラのプログラムを実行させる、等の態様が可能である。なお、本発明の信号処理システムでは、仮にマイクユニットの接続位置を変更した場合であっても、接続位置毎に適したプログラムが送信される。例えば、最も近いマイクユニットには、必ずエコーキャンセラのプログラムが実行される。したがって、どの位置にどのマイクユニットを接続するのか、ユーザが意識する必要はない。 For example, when there is a speaker in the host device, it is possible to execute an echo canceller program on the microphone unit closest to the host device and a noise canceller program on the microphone unit far from the host device. is there. In the signal processing system according to the present invention, even if the connection position of the microphone unit is changed, a program suitable for each connection position is transmitted. For example, an echo canceller program is always executed on the nearest microphone unit. Therefore, the user does not need to be aware of which microphone unit is connected to which position.
また、ホスト装置は、接続されるマイクユニットの数に応じて、送信するプログラムを変更することも可能である。接続されるマイクユニットの数が1つの場合は当該マイクユニットのゲインを高く設定し、マイクユニットの数が複数の場合は、各マイクユニットのゲインを相対的に低く設定する。 The host device can also change the program to be transmitted according to the number of microphone units connected. When the number of connected microphone units is one, the gain of the microphone unit is set high. When the number of microphone units is plural, the gain of each microphone unit is set relatively low.
あるいは、各マイクユニットが複数のマイクを備えている場合、マイクアレイとして機能させるためのプログラムを実行させる態様も可能である。 Alternatively, when each microphone unit includes a plurality of microphones, a mode for executing a program for causing the microphone unit to function as a microphone array is also possible.
また、ホスト装置は、前記音声処理プログラムを一定の単位ビットデータに分割し、前記単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成し、前記シリアルデータを前記各マイクユニットへ送信し、各マイクユニットは、前記シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した前記単位ビットデータを一時記憶し、処理部は、前記単位ビットデータを結合した音声処理プログラムに応じた処理を行う態様も可能である。これにより、マイクユニットの数が増えて送信するプログラムの数が増えたとしてもマイクユニット間の信号線の数が増えることがない。 Further, the host device divides the audio processing program into constant unit bit data, creates serial data in which the unit bit data is arranged in the order received by each microphone unit, and transmits the serial data to each microphone unit. Each microphone unit extracts and receives unit bit data that it should receive from the serial data, temporarily stores the extracted unit bit data, and the processing unit responds to an audio processing program that combines the unit bit data. A mode of performing processing is also possible. Thereby, even if the number of microphone units increases and the number of programs to be transmitted increases, the number of signal lines between the microphone units does not increase.
また、各マイクユニットは、前記処理後の音声を一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットは協同して送信用シリアルデータを作成し、前記ホスト装置に送信する態様も可能である。これにより、マイクユニットの数が増えてチャンネル数が増えたとしてもマイクユニット間の信号線の数が増えることがない。 In addition, each microphone unit divides the processed sound into fixed unit bit data and transmits it to a microphone unit connected to a higher level, and each microphone unit cooperates to create serial data for transmission, and A mode of transmission to the apparatus is also possible. Thereby, even if the number of microphone units increases and the number of channels increases, the number of signal lines between the microphone units does not increase.
また、マイクユニットは、異なる収音方向を有する複数のマイクロホンと、音声レベル判定手段とを有し、前記ホスト装置は、スピーカを有し、該スピーカから各マイクユニットに向けて試験用音波を発し、各マイクユニットは、前記複数のマイクロホンに入力された前記試験用音波のレベルを判定し、判定結果となるレベルデータを一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットが協同してレベル判定用シリアルデータを作成する態様とすることも可能である。これにより、スピーカから各マイクユニットのマイクロホンに至るエコーのレベルをホスト装置で把握することができる。 The microphone unit includes a plurality of microphones having different sound collection directions and a sound level determination unit. The host device includes a speaker, and emits a test sound wave from the speaker toward each microphone unit. Each microphone unit determines the level of the test sound wave input to the plurality of microphones, divides the level data as a determination result into fixed unit bit data, and transmits the unit bit data to a higher-level microphone unit. It is also possible to adopt a mode in which the microphone units cooperate to create level determination serial data. Thereby, the host device can grasp the level of echo from the speaker to the microphone of each microphone unit.
また、音声処理プログラムは、フィルタ係数が更新されるエコーキャンセラを実現するためのエコーキャンセルプログラムからなり、該エコーキャンセルプログラムは前記フィルタ係数の数を決めるフィルタ係数設定部を有し、前記ホスト装置は、各マイクユニットから受けとったレベルデータに基づいて各マイクユニットのフィルタ係数の数を変更し、各マイクユニットへフィルタ係数の数を変更するための変更パラメータを定め、該変更パラメータを一定の単位ビットデータに分割して、前記単位ビットデータを各マイクユニットが受け取る順に配列した変更パラメータ用シリアルデータを作成し、前記各マイクユニットへ前記変更パラメータ用シリアルデータを送信する態様とすることも可能である。 The speech processing program includes an echo cancellation program for realizing an echo canceller in which filter coefficients are updated. The echo cancellation program includes a filter coefficient setting unit that determines the number of filter coefficients. Based on the level data received from each microphone unit, the number of filter coefficients of each microphone unit is changed, a change parameter for changing the number of filter coefficients is determined for each microphone unit, and the change parameter is set to a constant unit bit. It is also possible to divide into data, create change parameter serial data in which the unit bit data is arranged in the order received by each microphone unit, and transmit the change parameter serial data to each microphone unit. .
この場合、ホスト装置に近く、エコーのレベルが高くなるマイクユニットには、フィルタ係数の数(タップ数)を多くしたり、ホスト装置に遠く、エコーのレベルが低くなるマイクユニットには、タップ数を短くしたりすることができる。 In this case, the number of filter coefficients (number of taps) is increased for a microphone unit that is close to the host device and has a high echo level, or the number of taps is set for a microphone unit that is far from the host device and has a low echo level. Can be shortened.
また、音声処理プログラムは、前記エコーキャンセルプログラムまたはノイズ成分を除去するノイズキャンセルプログラムであり、前記ホスト装置は、前記レベルデータから各マイクユニットへ送信するプログラムを前記エコーキャンセルプログラムまたは前記ノイズキャンセルプログラムのいずれかに定める態様とすることも可能である。 The audio processing program is the echo cancellation program or a noise cancellation program that removes noise components, and the host device transmits a program to be transmitted from the level data to each microphone unit of the echo cancellation program or the noise cancellation program. It is also possible to adopt a mode defined in any one of them.
この場合、ホスト装置に近く、エコーのレベルが高いマイクユニットには、エコーキャンセラを実行させ、ホスト装置に遠く、エコーのレベルが低いマイクユニットには、ノイズキャンセラを実行させることができる。 In this case, a microphone unit close to the host device and having a high echo level can execute an echo canceller, and a microphone unit far from the host device and having a low echo level can execute a noise canceller.
また、本発明の信号処理方法は、直列接続された複数のマイクユニットと、当該複数のマイクユニットの1つに接続されるホスト装置と、を備えた信号処理装置のための信号処理方法である。各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備える。前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備える。当該信号処理方法は、前記ホスト装置の起動状態を検知すると、前記不揮発性メモリから前記音声処理プログラムを読み出し、該音声処理プログラムを前記ホスト装置から前記各マイクユニットへ送信し、前記音声処理プログラムを前記各マイクユニットの前記一時記憶用メモリに一時記憶し、前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする。 The signal processing method of the present invention is a signal processing method for a signal processing device including a plurality of microphone units connected in series and a host device connected to one of the plurality of microphone units. . Each microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone. The host device includes a non-volatile memory that holds an audio processing program for the microphone unit. In the signal processing method, when the activation state of the host device is detected, the audio processing program is read from the nonvolatile memory, the audio processing program is transmitted from the host device to the microphone units, and the audio processing program is transmitted. Temporarily storing in the temporary storage memory of each microphone unit, performing processing according to the audio processing program temporarily stored in the temporary storage memory, and transmitting the processed audio to the host device. And
本発明によれば、予め複数のプログラムを記憶させておく必要がなく、新たな機能を追加する場合に端末のプログラムを書き換える必要もない。 According to the present invention, it is not necessary to store a plurality of programs in advance, and it is not necessary to rewrite the terminal program when adding a new function.
図1は、本発明の信号処理システムの接続態様を示す図である。信号処理システムは、ホスト装置1と、ホスト装置1にそれぞれ接続される複数(この例では5つ)のマイクユニット2A〜2Eと、からなる。
FIG. 1 is a diagram showing a connection mode of the signal processing system of the present invention. The signal processing system includes a
マイクユニット2A〜2Eは、例えば大空間の会議室内にそれぞれ配置される。ホスト装置1は、各マイクユニットから音声信号を受信し、種々の処理を行う。例えば、ネットワークを介して接続された他のホスト装置に各マイクユニットの音声信号を個別に送信する。
For example, the
図2(A)は、ホスト装置1の構成を示すブロック図であり、図2(B)は、マイクユニット2Aの構成を示すブロック図である。各マイクユニットのハードウェア構成は全て同一であり、図2(B)においては、代表してマイクユニット2Aの構成および機能について説明する。なお、本実施形態では、A/D変換の構成は省略し、特に記載が無い限り各種信号はデジタル信号であるものとして説明する。
FIG. 2A is a block diagram showing the configuration of the
図2(A)に示すように、ホスト装置1は、通信インタフェース(I/F)11、CPU12、RAM13、不揮発性メモリ14、およびスピーカ102を備えている。
As illustrated in FIG. 2A, the
CPU12は、不揮発性メモリ14からアプリケーションプログラムを読み出し、RAM13に一時記憶することで、種々の動作を行う。例えば、上述したように、各マイクユニットから音声信号を入力し、ネットワークを介して接続された他のホスト装置に各音声信号を個別に送信する。
The
不揮発性メモリ14は、フラッシュメモリ、ハードディスクドライブ(HDD)等からなる。不揮発性メモリ14には、音声処理プログラム(以下、本実施形態においては音声信号処理プログラムと言う。)が記憶されている。音声信号処理プログラムは、各マイクユニットの動作用プログラムである。例えば、エコーキャンセラの機能を実現するプログラムや、ノイズキャンセラの機能を実現するプログラム、ゲイン制御を実現するプログラム等、様々な種類のプログラムが存在する。
The
CPU12は、不揮発性メモリ14から所定の音声信号処理プログラムを読み出し、通信I/F11を介して各マイクユニットに送信する。なお、音声信号処理プログラムは、アプリケーションプログラムに内蔵されていてもよい。
The
マイクユニット2Aは、通信I/F21A、DSP22A、およびマイクロホン(以下、マイクとも言う。)25Aを備えている。
The
DSP22Aは、揮発性メモリ23Aおよび音声信号処理部24Aを備えている。なお、この例では、揮発性メモリ23AがDSP22Aに内蔵されている態様を示しているが、揮発性メモリ23Aは、DSP22Aとは別に設けられていてもよい。音声信号処理部24Aは、本発明の処理部に相当し、マイク25Aで収音した音声をデジタル音声信号として出力する機能を有する。
The
ホスト装置1から送信される音声信号処理プログラムは、通信I/F21Aを介して揮発性メモリ23Aに一時記憶される。音声信号処理部24Aは、揮発性メモリ23Aに一時記憶された音声信号処理プログラムに応じた処理を行い、マイク25Aが収音した音声に係るデジタル音声信号をホスト装置1に送信する。例えば、ホスト装置1からエコーキャンセラのプログラムが送信された場合、マイク25Aが収音した音声から、エコー成分を除去してからホスト装置1に送信する。このように、各マイクユニットでエコーキャンセラのプログラムを実行すると、ホスト装置1において通信会議用のアプリケーションプログラムを実行する場合に好適である。
The audio signal processing program transmitted from the
揮発性メモリ23Aに一時記憶された音声信号処理プログラムは、マイクユニット2Aへの電源供給が絶たれた場合に消去される。マイクユニットは、起動毎に都度、必ずホスト装置1から動作用の音声信号処理プログラムを受信してから動作を行う。マイクユニット2Aが、通信I/F21Aを介して電源供給を受ける(バスパワー駆動する)ものであれば、ホスト装置1に接続された場合にのみ、ホスト装置1から動作用のプログラムを受信し、動作を行うことになる。
The audio signal processing program temporarily stored in the
上述のように、ホスト装置1において通信会議用のアプリケーションプログラムを実行する場合には、エコーキャンセラ用の音声信号処理プログラムが実行され、録音用のアプリケーションプログラムを実行する場合は、ノイズキャンセラの音声信号処理プログラムが実行される。あるいは、各マイクユニットで収音した音声をホスト装置1のスピーカ102から出力するために、拡声用のアプリケーションプログラムを実行する場合には、ハウリングキャンセラ用の音声信号処理プログラムが実行される、という態様も可能である。なお、ホスト装置1において録音用のアプリケーションプログラムを実行する場合は、スピーカ102は不要である。
As described above, when the application program for communication conference is executed in the
図3(A)を参照して、エコーキャンセラについて説明する。図3(A)は、音声信号処理部24Aがエコーキャンセラのプログラムを実行した場合の構成を示すブロック図である。図3(A)に示すように、音声信号処理部24Aは、フィルタ係数設定部241、適応フィルタ242、および加算部243から構成される。
The echo canceller will be described with reference to FIG. FIG. 3A is a block diagram showing a configuration when the audio
フィルタ係数設定部241は、音響伝達系(ホスト装置1のスピーカ102から各マイクユニットのマイクに至る音響伝搬経路)の伝達関数を推定し、推定した伝達関数で適応フィルタ242のフィルタ係数を設定する。
The filter
適応フィルタ242は、FIRフィルタ等のデジタルフィルタを含んでいる。適応フィルタ242は、ホスト装置1から、当該ホスト装置1のスピーカ102に入力される放音信号FEを入力し、フィルタ係数設定部241に設定されたフィルタ係数でフィルタ処理して、擬似回帰音信号を生成する。適応フィルタ242は、生成した擬似回帰音信号を加算部243へ出力する。
The
加算部243は、適応フィルタ242から入力された擬似回帰音信号をマイク25Aの収音信号NE1から差し引いた収音信号NE1’を出力する。
The
フィルタ係数設定部241は、加算部243から出力された収音信号NE1’と放音信号FEとに基づいて、LMSアルゴリズム等の適応アルゴリズムを用いてフィルタ係数の更新を行う。そして、フィルタ係数設定部241は、更新したフィルタ係数を適応フィルタ242に設定する。
The filter
次に、ノイズキャンセラについて、図3(B)を参照して説明する。図3(B)は、音声信号処理部24Aがノイズキャンセラのプログラムを実行した場合の構成を示すブロック図である。図3(B)に示すように、音声信号処理部24Aは、FFT処理部245、ノイズ除去部246、推定部247、およびIFFT処理部248から構成される。
Next, the noise canceller will be described with reference to FIG. FIG. 3B is a block diagram showing a configuration when the audio
FFT処理部245は、収音信号NE’Tを周波数スペクトルNE’Nに変換する。ノイズ除去部246は、周波数スペクトルNE’Nに含まれるノイズ成分N’Nを除去する。ノイズ成分N’Nは、推定部247により周波数スペクトルNE’Nに基づいて推定される。
The
推定部247は、FFT処理部245から入力された周波数スペクトルNE’Nに含まれるノイズ成分N’Nを推定する処理を行う。推定部247は、音声信号NE’Nのあるサンプルタイミングにおける周波数スペクトル(以下、音声スペクトルと称す。)S(NE’N)を順次取得するとともに、一時記憶する。推定部247は、この取得および記憶した複数回の音声スペクトルS(NE’N)に基づいて、ノイズ成分N’Nの或るサンプルタイミングにおける周波数スペクトル(以下、ノイズスペクトルと称す。)S(N’N)を推定する。そして、推定部247は、推定したノイズスペクトルS(N’N)をノイズ除去部246へ出力する。
The
例えば、或るサンプリングタイミングTでのノイズスペクトルをS(N’N(T))とし、同サンプリングタイミングTでの音声スペクトルをS(NE’N(T))として、直前のサンプリングタイミングT−1でのノイズスペクトルをS(N’N(T−1))とする。また、α,βは、忘却定数であり、例えば、α=0.9、β=0.1となる。ノイズスペクトルS(N’N(T))は、次の式1で表すことができる。
For example, assuming that the noise spectrum at a certain sampling timing T is S (N′N (T)) and the audio spectrum at the sampling timing T is S (NE′N (T)), the immediately preceding sampling timing T−1 Let S (N′N (T−1)) be the noise spectrum at. Α and β are forgetting constants, for example, α = 0.9 and β = 0.1. The noise spectrum S (N′N (T)) can be expressed by the following
S(N’N(T))=αS(N’N(T−1))+βS(NE’N(T))・・・式1
このように、音声スペクトルに基づいてノイズスペクトルS(N’N(T))を推定することで、暗騒音等のノイズ成分を推定することができる。なお、推定部247は、マイク25Aが収音した収音信号のレベルが低い状態(無音状態)の場合のみ、ノイズスペクトルの推定処理を行うものとする。
S (N′N (T)) = αS (N′N (T−1)) + βS (NE′N (T))
Thus, noise components such as background noise can be estimated by estimating the noise spectrum S (N′N (T)) based on the speech spectrum. Note that the
ノイズ除去部246は、FFT処理部245から入力された周波数スペクトルNE’Nからノイズ成分N’Nを除去して、ノイズ除去後の周波数スペクトルCO’NをIFFT処理部248へ出力する。具体的には、ノイズ除去部246は、音声スペクトルS(NE’N)と、推定部247から入力されたノイズスペクトルS(N’N)との信号レベル比を算出する。ノイズ除去部246は、算出した信号レベル比が閾値以上の場合、音声スペクトルS(NE’N)を線形出力する。また、ノイズ除去部246は、算出した信号レベル比が閾値未満の場合、音声スペクトルS(NE’N)を非線形出力する。
The
IFFT処理部248は、ノイズ成分N’Nを除去した後の周波数スペクトルCO’Nを時間軸に逆変換して生成した音声信号CO’Tを出力する。
The
また、音声信号処理プログラムは、図4に示すようなエコーサプレッサのプログラムを実現することも可能である。エコーサプレッサは、図3(A)に示したエコーキャンセラの後段において、当該エコーキャンセラで除去しきれなかったエコー成分を除去するものである。エコーサプレッサは、図4に示すように、FFT処理部121、エコー除去部122、FFT処理部123、進捗度算出部124、エコー生成部125、FFT処理部126、およびIFFT処理部127から構成される。
The audio signal processing program can also realize an echo suppressor program as shown in FIG. The echo suppressor removes an echo component that could not be removed by the echo canceller in the subsequent stage of the echo canceller shown in FIG. As shown in FIG. 4, the echo suppressor includes an
FFT処理部121は、エコーキャンセラから出力された収音信号NE1’を周波数スペクトルに変換する。この周波数スペクトルは、エコー除去部122および進捗度算出部124に出力される。エコー除去部122は、入力された周波数スペクトルに含まれる残留エコー成分(エコーキャンセラで除去しきれなかったエコー成分)を除去する。残留エコー成分は、エコー生成部125により生成される。
The
エコー生成部125は、FFT処理部126から入力された擬似回帰音信号の周波数スペクトルに基づいて残留エコー成分を生成する。残留エコー成分は、過去に推定した残留エコー成分と、入力された擬似回帰音信号の周波数スペクトルに所定の係数を乗算したものと、を加算することにより求める。この所定の係数は、進捗度算出部124によって設定される。進捗度算出部124は、FFT処理部123から入力された収音信号NE1(前段のエコーキャンセラによりエコー成分が除去される前の収音信号)と、FFT処理部121から入力された収音信号NE1’(前段のエコーキャンセラによりエコー成分が除去された後の収音信号)とのパワー比を求める。進捗度算出部124は、当該パワー比に基づいた所定の係数を出力する。例えば、適応フィルタ242の学習が全く行われていない場合には、上記所定の係数を1とし、適応フィルタ242の学習が進んだ場合には、所定の係数を0とし、適応フィルタ242の学習が進むほど所定の係数を小さくして、残留エコー成分を小さくする。そして、エコー除去部122は、エコー生成部125で算出された残留エコー成分を除去する。IFFT処理部127は、エコー成分を除去した後の周波数スペクトルを時間軸に逆変換して出力する。
The
なお、これらのエコーキャンセラのプログラム、ノイズキャンセラのプログラム、およびエコーサプレッサのプログラムは、ホスト装置1で実行することも可能である。特に、各マイクユニットがエコーキャンセラのプログラムを実行しつつ、ホスト装置がエコーサプレッサのプログラムを実行することも可能である。
The echo canceller program, the noise canceller program, and the echo suppressor program can be executed by the
なお、本実施形態の信号処理システムでは、接続されるマイクユニットの数に応じて、実行する音声信号処理プログラムを変更することも可能である。例えば、接続されるマイクユニットの数が1つの場合は当該マイクユニットのゲインを高く設定し、マイクユニットの数が複数の場合は、各マイクユニットのゲインを相対的に低く設定する。 In the signal processing system according to the present embodiment, the audio signal processing program to be executed can be changed according to the number of connected microphone units. For example, when the number of connected microphone units is one, the gain of the microphone unit is set high, and when the number of microphone units is plural, the gain of each microphone unit is set relatively low.
あるいは、各マイクユニットが複数のマイクを備えている場合、マイクアレイとして機能させるためのプログラムを実行する態様も可能である。この場合、ホスト装置1に接続される順番(位置)に応じて、マイクユニット毎に異なるパラメータ(ゲイン、遅延量等)を設定することができる。
Alternatively, when each microphone unit includes a plurality of microphones, it is possible to execute a program for causing a microphone array to function. In this case, different parameters (gain, delay amount, etc.) can be set for each microphone unit according to the order (position) connected to the
このように、本実施形態のマイクユニットは、ホスト装置1の用途に応じて、種々の機能を実現することができる。このような多種多様な機能を実現する場合であっても、マイクユニット2Aには、予めプログラムを記憶させておく必要がなく、不揮発メモリが不要である(あるいは容量が小さく済む)。
As described above, the microphone unit of the present embodiment can realize various functions according to the use of the
なお、本実施形態では、一時記憶用メモリの一例として、RAMである揮発性メモリ23Aを示したが、マイクユニット2Aへの電源供給が絶たれた場合に内容が消去されるものであれば揮発性メモリに限らず、フラッシュメモリ等の不揮発性メモリを用いてもよい。この場合、例えば、マイクユニット2Aへの電源供給が絶たれた場合やケーブルが差し替えられた場合に、DSP22Aは、フラッシュメモリの内容を消去する。なお、この場合、マイクユニット2Aへの電源供給が絶たれた時にDSP22Aがフラッシュメモリの内容を消去するまでの電源を一時的に確保するキャパシタ等を設ける。
In the present embodiment, the
また、製品販売時には想定されていなかった新たな機能を追加する場合に、各マイクユニットのプログラム書き換え処理は不要であり、ホスト装置1の不揮発性メモリ14に記憶されている音声信号処理プログラムを変更するだけで、新たな機能を実現することができる。
In addition, when adding a new function that was not assumed at the time of product sales, the program rewriting process of each microphone unit is unnecessary, and the audio signal processing program stored in the
さらに、マイクユニット2A〜マイクユニット2Eは、全て同じハードウェアを有するため、どのマイクユニットをどの位置に接続するのか、ユーザが意識する必要はない。
Furthermore, since the
例えば、最もホスト装置1に近いマイクユニット(例えばマイクユニット2A)にはエコーキャンセラのプログラムを実行させ、ホスト装置1から遠いマイクユニット(例えばマイクユニット2E)にはノイズキャンセラのプログラムを実行させる場合において、仮にマイクユニット2Aとマイクユニット2Eの接続を入れ替えた場合、最もホスト装置1に近いマイクユニット2Eに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニット2Aにノイズキャンセラのプログラムが実行される。
For example, when a microphone unit (for example, the
なお、各マイクユニットは、図1に示したように、それぞれホスト装置1に直接接続されるスター型接続の態様であってもよいが、図5(A)に示すように、各マイクユニット同士が直列に接続され、いずれか1つのマイクユニット(マイクユニット2A)が、ホスト装置1に接続されるカスケード型接続の態様であってもよい。
As shown in FIG. 1, each microphone unit may be in a star connection mode that is directly connected to the
図5(A)の例では、ホスト装置1は、ケーブル331を介してマイクユニット2Aに接続されている。マイクユニット2Aおよびマイクユニット2Bは、ケーブル341を介して接続されている。マイクユニット2Bおよびマイクユニット2Cは、ケーブル351を介して接続されている。マイクユニット2Cおよびマイクユニット2Dは、ケーブル361を介して接続されている。マイクユニット2Dおよびマイクユニット2Eは、ケーブル371を介して接続されている。
In the example of FIG. 5A, the
図5(B)は、ホスト装置1の外観斜視図であり、図5(C)は、マイクユニット2Aの外観斜視図である。図5(C)においては、マイクユニット2Aを代表して図示し、説明を行うが、全てのマイクユニットは、同じ外観および構成を有する。図5(B)に示すように、ホスト装置1は、直方体形状の筐体101Aを有し、筐体101Aの側面(正面)にスピーカ102が設けられ、筐体101Aの側面(背面)に通信I/F11が設けられている。マイクユニット2Aは、直方体形状の筐体201Aを有し、筐体201Aの側面にマイク25Aが設けられ、筐体201Aの正面に第1入出力端子33Aおよび第2入出力端子34Aが設けられている。なお、図5(C)では、マイク25Aが背面、右側面、および左側面の3つの収音方向を有する例を示している。ただし、収音方向はこの例に限るものではない。例えば、3つのマイク25Aを平面視して120度間隔で並べて円周方向に収音する態様であってもよい。マイクユニット2Aは、第1入出力端子33Aにケーブル331が接続され、当該ケーブル331を介してホスト装置1の通信I/F11に接続されている。また、マイクユニット2Aは、第2入出力端子34Aにケーブル341が接続され、当該ケーブル341を介してマイクユニット2Bの第1入出力端子33Bに接続されている。なお、筐体101Aおよび筐体201Aの形状は直方体形状に限るものではない。例えば、ホスト装置1の筐体101Aが楕円柱であり、マイクユニット2Aの筐体201Aが円柱形状であってもよい。
5B is an external perspective view of the
本実施形態の信号処理システムは、外観上は図5(A)に示すカスケード型接続の態様でありながら、電気的にはスター型接続の態様を実現することも可能である。以下、この点について、説明する。 Although the signal processing system of the present embodiment is an appearance of the cascade connection shown in FIG. 5A in appearance, it can electrically realize a star connection. Hereinafter, this point will be described.
図6(A)は、信号接続を示した概略ブロック図である。各マイクユニットのハードウェア構成は全て同一である。まず、代表して図6(B)を参照して、マイクユニット2Aの構成および機能について説明する。
FIG. 6A is a schematic block diagram showing signal connection. The hardware configuration of each microphone unit is the same. First, the configuration and function of the
マイクユニット2Aは、図2(A)に示したDSP22Aに加えて、FPGA31A、第1入出力端子33Aおよび第2入出力端子34Aを備えている。
The
FPGA31Aは、図6(B)に示すような物理回路を実現する。すなわち、FPGA31Aは、第1入出力端子33Aの第1チャンネルと、DSP22Aとを物理的に接続する。
The
また、FPGA31Aは、第1入出力端子33Aの第1チャンネル以外のサブチャンネルの1つと、第2入出力端子34Aの当該サブチャンネルに対応するチャンネルに隣接する他チャンネルと、を物理的に接続する。例えば、第1入出力端子33Aの第2チャンネルと、第2入出力端子34Aの第1チャンネルと、を接続し、第1入出力端子33Aの第3チャンネルと、第2入出力端子34Aの第2チャンネルと、を接続し、第1入出力端子33Aの第4チャンネルと、第2入出力端子34Aの第3チャンネルと、を接続し、第1入出力端子33Aの第5チャンネルと、第2入出力端子34Aの第4チャンネルと、を接続する。第2入出力端子34Aの第5チャンネルは、どこにも接続されていない。
The
このような物理回路により、ホスト装置1の第1チャンネルの信号(ch.1)は、マイクユニット2AのDSP22Aに入力される。また、図6(A)に示すように、ホスト装置1の第2チャンネルの信号(ch.2)は、マイクユニット2Aの第1入出力端子33Aの第2チャンネルから、マイクユニット2Bの第1入出力端子33Bの第1チャンネルに入力され、DSP22Bに入力される。
By such a physical circuit, the signal (ch. 1) of the first channel of the
第3チャンネルの信号(ch.3)は、第1入出力端子33Aの第3チャンネルからマイクユニット2Bの第1入出力端子33Bの第2チャンネルを経て、マイクユニット2Cの第1入出力端子33Cの第1チャンネルに入力され、DSP22Cに入力される。
The signal (ch. 3) of the third channel passes through the second channel of the first input /
同様の構造により、第4チャンネルの音声信号(ch.4)は、第1入出力端子33Aの第4チャンネルからマイクユニット2Bの第1入出力端子33Bの第3チャンネル、およびマイクユニット2Cの第1入出力端子33Cの第2チャンネルを経て、マイクユニット2Dの第1入出力端子33Dの第1チャンネルに入力され、DSP22Dに入力される。第5チャンネルの音声信号(ch.5)は、第1入出力端子33Aの第5チャンネルからマイクユニット2Bの第1入出力端子33Bの第4チャンネル、マイクユニット2Cの第1入出力端子33Cの第3チャンネル、およびマイクユニット2Dの第1入出力端子33Dの第2チャンネルを経て、マイクユニット2Eの第1入出力端子33Eの第1チャンネルに入力され、DSP22Eに入力される。
With the same structure, the fourth channel audio signal (ch.4) is transmitted from the fourth channel of the first input /
これにより、外観上はカスケード型接続でありながら、ホスト装置1から各マイクユニットに個別の音声信号処理プログラムを送信することができる。この場合、ケーブルを介して直列に接続された各マイクユニットは、着脱自在とすることができ、接続順を考慮する必要がない。例えば、最もホスト装置1に近いマイクユニット2Aにエコーキャンセラのプログラムを送信し、最もホスト装置1から遠いマイクユニット2Eにノイズキャンセラのプログラムを送信する場合において、仮にマイクユニット2Aとマイクユニット2Eの接続位置を入れ替えた場合に各マイクユニットに送信されるプログラムについて説明する。この場合、マイクユニット2Eの第1入出力端子33Eは、ケーブル331を介してホスト装置1の通信I/F11と接続され、第2入出力端子34Eは、ケーブル341を介してマイクユニット2Bの第1入出力端子33Bと接続される。マイクユニット2Aの第1入出力端子33Aは、ケーブル371を介してマイクユニット2Dの第2入出力端子34Dに接続される。すると、マイクユニット2Eにエコーキャンセラのプログラムが送信され、マイクユニット2Aにノイズキャンセラのプログラムが送信される。このように、接続順を入れ替えたとしても、最もホスト装置1に近いマイクユニットに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニットにノイズキャンセラのプログラムが実行される。
Thereby, it is possible to transmit an individual audio signal processing program from the
なお、ホスト装置1は、各マイクユニットの接続順序を認識し、接続順序およびケーブルの長さに基づいて、自装置から一定の距離以内のマイクユニットにはエコーキャンセラのプログラムを送信し、自装置から一定の距離を超えたマイクユニットには、ノイズキャンセラのプログラムを送信することも可能である。ケーブルの長さは、例えば、専用のケーブルを用いる場合には、予めホスト装置にケーブルの長さに関する情報を記憶しておく。また、各ケーブルに識別情報を設定して、識別情報とケーブルの長さに関する情報を記憶し、使用されている各ケーブルから識別情報を受信することで、使用されている各ケーブルの長さを知ることも可能である。
The
なお、ホスト装置1は、エコーキャンセラのプログラムを送信する時に、自装置に近いエコーキャンセラにはフィルタ係数の数(タップ数)を増加して残響の長いエコーにも対応できるようにし、自装置から遠いエコーキャンセラにはフィルタ係数の数(タップ数)を減少することが好ましい。
When the
また、自装置から一定の距離以内のマイクユニットにはエコーキャンセラのプログラムに代えて、非線形処理を行うプログラム(例えば上述のエコーサプレッサのプログラム)を送信し、エコーキャンセラでは除去しきれないエコー成分が発生する場合であっても、当該エコー成分を除去する態様とすることも可能である。また、本実施形態では、マイクユニットは、ノイズキャンセラまたはエコーキャンセラのいずれかを選択するよう記載されているが、ホスト装置1に近いマイクユニットにはノイズキャンセラおよびエコーキャンセラの双方のプログラムを送信し、ホスト装置1から遠いマイクユニットにはノイズキャンセラのプログラムのみを送信してもよい。
Also, instead of the echo canceller program, a program that performs non-linear processing (for example, the above-described echo suppressor program) is sent to the microphone unit within a certain distance from the device itself, and there are echo components that cannot be removed by the echo canceller. Even if it occurs, it is possible to adopt a mode in which the echo component is removed. In the present embodiment, the microphone unit is described as selecting either the noise canceller or the echo canceller. However, both the noise canceller and the echo canceller programs are transmitted to the microphone unit close to the
図6(A)および図6(B)に示した構成によれば、各マイクユニットからホスト装置1に音声信号を出力する場合も同様に、各マイクユニットから各チャンネルの音声信号を個別に出力することができる。
According to the configuration shown in FIGS. 6 (A) and 6 (B), when each microphone unit outputs an audio signal to the
また、この例では、FPGAで物理回路を実現する例を示したが、上述の物理回路を実現できるものであれば、FPGAに限るものではない。例えば、専用のICを予め用意しておいてもよいし、あらかじめ配線を施しておいてもよい。また、物理回路に限らず、ソフトウェアでFPGA31Aと同様の回路を実現する態様であってもよい。
In this example, an example in which a physical circuit is realized by an FPGA has been described. However, the present invention is not limited to an FPGA as long as the above-described physical circuit can be realized. For example, a dedicated IC may be prepared in advance, or wiring may be provided in advance. Further, not only a physical circuit but also a mode in which a circuit similar to the
次に、図7は、シリアルデータとパラレルデータを変換する場合のマイクユニットの構成を示した概略ブロック図である。図7においては、マイクユニット2Aを代表して図示し、説明を行うが、全てのマイクユニットは、同じ構成および機能を有する。
Next, FIG. 7 is a schematic block diagram showing the configuration of the microphone unit in the case of converting serial data and parallel data. In FIG. 7, the
この例では、マイクユニット2Aは、図6(A)および図6(B)に示したFPGA31Aに代えて、FPGA51Aを備えている。
In this example, the
FPGA51Aは、上述したFPGA31Aに相当する物理回路501A、シリアルデータとパラレルデータとを変換する第1変換部502Aおよび第2変換部503Aを備えている。
The
この例では、第1入出力端子33Aおよび第2入出力端子34Aは、複数チャンネルの音声信号をシリアルデータとして入出力する。DSP22Aは、第1チャンネルの音声信号をパラレルデータで物理回路501Aに出力する。
In this example, the first input /
物理回路501Aは、DSP22Aから出力された第1チャンネルのパラレルデータを第1変換部502Aに出力する。また、物理回路501Aは、第2変換部503Aから出力された第2チャンネルのパラレルデータ(DSP22Bの出力信号に相当する。)、第3チャンネルのパラレルデータ(DSP22Cの出力信号に相当する。)、第4チャンネルのパラレルデータ(DSP22Dの出力信号に相当する。)、および第5チャンネルのパラレルデータ(DSP22Eの出力信号に相当する。)を第1変換部502Aに出力する。
The
図8(A)は、シリアルデータとパラレルデータの変換を示す概念図である。パラレルデータは、図8(A)の上欄に示すように、同期用のビットクロック(BCK)と、ワードクロック(WCK)と、各チャンネル(5チャンネル)の信号SDO0〜SDO4と、からなる。 FIG. 8A is a conceptual diagram showing conversion between serial data and parallel data. As shown in the upper column of FIG. 8A, the parallel data is composed of a bit clock (BCK) for synchronization, a word clock (WCK), and signals SDO0 to SDO4 of each channel (5 channels).
シリアルデータは、同期信号とデータ部分と、からなる。データ部分には、ワードクロックと、各チャンネル(5チャンネル)の信号SDO0〜SDO4と、誤り訂正符号CRCと、が含まれている。 The serial data consists of a synchronization signal and a data part. The data portion includes a word clock, signals SDO0 to SDO4 of each channel (5 channels), and an error correction code CRC.
第1変換部502Aは、物理回路501Aから図8(A)上欄に示すようなパラレルデータが入力される。第1変換部502Aは、当該パラレルデータを図8(A)下欄に示すようなシリアルデータに変換する。このようなシリアルデータが第1入出力端子33Aに出力され、ホスト装置1に入力される。ホスト装置1は、入力されたシリアルデータに基づいて、各チャンネルの音声信号を処理する。
The
一方、第2変換部503Aは、マイクユニット2Bの第1変換部502Bから図8(A)下欄に示すようなシリアルデータが入力され、図8(A)上欄に示すようなパラレルデータに変換し、物理回路501Aに出力する。
On the other hand, the
そして、図8(B)に示すように、物理回路501Aによって、第2変換部503Aが出力するSDO0の信号は、SDO1の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO1の信号は、SDO2の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO2の信号は、SDO3の信号として第1変換部502Aに出力され、第2変換部503Aが出力するSDO3の信号は、SDO4の信号として第1変換部502Aに出力される。
8B, the SDO0 signal output from the
したがって、図6(A)に示した例と同様に、DSP22Aの出力した第1チャンネルの音声信号(ch.1)は、ホスト装置1に第1チャンネルの音声信号として入力され、DSP22Bが出力した第2チャンネルの音声信号(ch.2)は、ホスト装置1に第2チャンネルの音声信号として入力され、DSP22Cが出力した第3チャンネルの音声信号(ch.3)は、ホスト装置1に第3チャンネルの音声信号として入力され、DSP22Dが出力した第4チャンネルの音声信号(ch.4)は、ホスト装置1に第4チャンネルの音声信号として入力され、マイクユニット2EのDSP22Eが出力した第5チャンネルの音声信号(ch.5)は、ホスト装置1に第5チャンネルの音声信号として入力される。
Therefore, as in the example shown in FIG. 6A, the first channel audio signal (ch. 1) output from the
図9を参照して、上述の信号の流れについて説明する。まず、マイクユニット2EのDSP22Eは、自装置のマイク25Eで収音した音声を音声信号処理部24Aで処理し、当該処理後の音声を単位ビットデータに分割したもの(信号SDO4)を物理回路501Eに出力する。物理回路501Eは、当該信号SDO4を第1チャンネルの信号とするパラレルデータとして、第1変換部502Eに出力する。第1変換部502Eは、当該パラレルデータをシリアルデータに変換する。当該シリアルデータは、図9の最下欄に示すように、ワードクロックから順に、先頭の単位ビットデータ(図中の信号SDO4)と、ビットデータ0(図中のハイフン「−」で示す。)と、誤り訂正符号CRCと、が含まれている。このようなシリアルデータが第1入出力端子33Eから出力され、マイクユニット2Dに入力される。
With reference to FIG. 9, the above-described signal flow will be described. First, the
マイクユニット2Dの第2変換部503Dは、入力されたシリアルデータをパラレルデータに変換し、物理回路501Dに出力する。そして、物理回路501Dは、当該パラレルデータに含まれる信号SDO4を第2チャンネルの信号として、DSP22Dから入力される信号SDO3を第1チャンネルの信号として、第1変換部502Dに出力する。第1変換部502Dは、図9の上から3欄目に示すように、信号SDO3をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO4を2番目の単位ビットデータとするシリアルデータに変換する。また、第1変換部502Dは、この場合(信号SDO3が先頭であり、信号SDO4が2番目である場合)の誤り訂正符号CRCを新たに生成し、当該シリアルデータに付与して出力する。
The
このようなシリアルデータが第1入出力端子33Dから出力され、マイクユニット2Cに入力される。マイクユニット2Cにおいても同様の処理が行われる。その結果、マイクユニット2Cは、信号SDO2をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO3を2番目の単位ビットデータとし、信号SDO4を3番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータは、マイクユニット2Bに入力される。マイクユニット2Bにおいても同様の処理が行われる。その結果、マイクユニット2Bは、信号SDO1をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO2を2番目の単位ビットデータとし、信号SDO3を3番目の単位ビットデータとし、信号SDO4を4番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータは、マイクユニット2Aに入力される。マイクユニット2Aにおいても同様の処理が行われる。その結果、マイクユニット2Aは、信号SDO0をワードクロックに続く先頭の単位ビットデータとして挿入し、信号SDO1を2番目の単位ビットデータとし、信号SDO2を3番目の単位ビットデータとし、信号SDO3を4番目の単位ビットデータとし、信号SDO4を5番目の単位ビットデータとし、新たな誤り訂正符号CRCを付与したシリアルデータを出力する。そして、当該シリアルデータは、ホスト装置1に入力される。
Such serial data is output from the first input /
このようにして、図6(A)に示した例と同様に、DSP22Aの出力した第1チャンネルの音声信号(ch.1)は、ホスト装置1に第1チャンネルの音声信号として入力され、DSP22Bが出力した第2チャンネルの音声信号(ch.2)は、ホスト装置1に第2チャンネルの音声信号として入力され、DSP22Cが出力した第3チャンネルの音声信号(ch.3)は、ホスト装置1に第3チャンネルの音声信号として入力され、DSP22Dが出力した第4チャンネルの音声信号(ch.4)は、ホスト装置1に第4チャンネルの音声信号として入力され、マイクユニット2EのDSP22Eが出力した第5チャンネルの音声信号(ch.5)は、ホスト装置1に第5チャンネルの音声信号として入力される。すなわち、各マイクユニットは、各DSPで処理された音声信号を、一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットは協同して送信用シリアルデータを作成することになる。
In this manner, as in the example shown in FIG. 6A, the first channel audio signal (ch. 1) output from the
次に、図10は、ホスト装置1から各マイクユニットに個別の音声信号処理プログラムを送信する場合の信号の流れを示す図である。この場合、図9に示した信号の流れとは逆の処理がなされる。
Next, FIG. 10 is a diagram illustrating a signal flow when an individual audio signal processing program is transmitted from the
まず、ホスト装置1は、不揮発性メモリ14から、各マイクユニットに送信する音声信号処理プログラムを一定の単位ビットデータに分割して読み出し、単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成する。シリアルデータは、ワードクロックに続く先頭の単位ビットデータとして信号SDO0、2番目の単位ビットデータとして信号SDO1、3番目の単位ビットデータとして信号SDO2、4番目の単位ビットデータとして信号SDO3、5番目の単位ビットデータとして信号SDO4、および誤り訂正符号CRCが付与されている。当該シリアルデータがまずマイクユニット2Aに入力される。マイクユニット2Aでは、当該シリアルデータから先頭の単位ビットデータである信号SDO0が抜き出され、当該抜き出された単位ビットデータがDSP22Aに入力され、揮発性メモリ23Aに一時記憶される。
First, the
そして、マイクユニット2Aは、ワードクロックに続く先頭の単位ビットデータとして信号SDO1、2番目の単位ビットデータとして信号SDO2、3番目の単位ビットデータとして信号SDO3、4番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。5番目の単位ビットデータは0(図中のハイフン「−」)とされる。当該シリアルデータがマイクユニット2Bに入力される。マイクユニット2Bでは、先頭の単位ビットデータである信号SDO1がDSP22Bに入力される。そして、マイクユニット2Bは、ワードクロックに続く先頭の単位ビットデータとして信号SDO2、2番目の単位ビットデータとして信号SDO3、3番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータがマイクユニット2Cに入力される。マイクユニット2Cでは、先頭の単位ビットデータである信号SDO2がDSP22Cに入力される。そして、マイクユニット2Cは、ワードクロックに続く先頭の単位ビットデータとして信号SDO3、2番目の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。当該シリアルデータがマイクユニット2Dに入力される。マイクユニット2Dでは、先頭の単位ビットデータである信号SDO3がDSP22Dに入力される。そして、マイクユニット2Dは、ワードクロックに続く先頭の単位ビットデータとして信号SDO4、および新たな誤り訂正符号CRCを付与したシリアルデータを出力する。最後に、当該シリアルデータがマイクユニット2Eに入力され、先頭の単位ビットデータである信号SDO4がDSP22Eに入力される。
Then, the
この様にして、ホスト装置1に接続されているマイクユニットには必ず先頭の単位ビットデータ(信号SDO0)が送信され、2番目に接続されているマイクユニットには必ず2番目の単位ビットデータ(信号SDO1)が送信され、3番目に接続されているマイクユニットには必ず3番目の単位ビットデータ(信号SDO2)が送信され、4番目に接続されているマイクユニットには必ず4番目の単位ビットデータ(信号SDO3)が送信され、5番目に接続されているマイクユニットには必ず5番目の単位ビットデータ(信号SDO4)が送信される。
In this way, the first unit bit data (signal SDO0) is always transmitted to the microphone unit connected to the
そして、各マイクユニットは、単位ビットデータを結合した音声信号処理プログラムに応じた処理を行う。この場合においても、ケーブルを介して直列に接続された各マイクユニットは、着脱自在とすることができ、接続順を考慮する必要がない。例えば、最もホスト装置1に近いマイクユニット2Aにエコーキャンセラのプログラムを送信し、最もホスト装置1から遠いマイクユニット2Eにノイズキャンセラのプログラムを送信する場合において、仮にマイクユニット2Aとマイクユニット2Eの接続位置を入れ替えると、マイクユニット2Eにエコーキャンセラのプログラムが送信され、マイクユニット2Aにノイズキャンセラのプログラムが送信される。このように、接続順を入れ替えたとしても、最もホスト装置1に近いマイクユニットに必ずエコーキャンセラのプログラムが実行され、最もホスト装置1から遠いマイクユニットにノイズキャンセラのプログラムが実行される。
Each microphone unit performs processing according to an audio signal processing program that combines unit bit data. Even in this case, the microphone units connected in series via the cable can be detachable, and there is no need to consider the order of connection. For example, when an echo canceller program is transmitted to the
次に、図11のフローチャートを参照して、ホスト装置1および各マイクユニットの起動時の動作について説明する。ホスト装置1のCPU12は、マイクユニットが接続され、当該マイクユニットの起動状態を検知すると(S11)、不揮発性メモリ14から所定の音声信号処理プログラムを読み出し(S12)、通信I/F11を介して各マイクユニットに送信する(S13)。このとき、ホスト装置1のCPU12は、上述のように音声信号処理プログラムを一定の単位ビットデータに分割し、単位ビットデータを各マイクユニットが受け取る順に配列したシリアルデータを作成して、マイクユニットへ送信する。
Next, with reference to the flowchart of FIG. 11, the operation at the time of starting the
各マイクユニットは、ホスト装置1から送信された音声信号処理プログラムを受信し(S21)、一時記憶する(S22)。このとき、各マイクユニットは、シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した単位ビットデータを一時記憶する。マイクユニットは、一時記憶した単位ビットデータを結合し、結合した音声信号処理プログラムに応じた処理を行う(S23)。そして、各マイクユニットは、収音した音声に係るデジタル音声信号をホスト装置1に送信する(S24)。このとき、各マイクユニットの音声信号処理部が処理したデジタル音声信号は、一定の単位ビットデータに分割されて上位に接続されたマイクユニットに送信され、各マイクユニットが協同して送信用シリアルデータを作成し、当該送信用シリアルデータをホスト装置に送信する。 Each microphone unit receives the audio signal processing program transmitted from the host device 1 (S21) and temporarily stores it (S22). At this time, each microphone unit extracts and receives the unit bit data to be received from the serial data, and temporarily stores the extracted unit bit data. The microphone unit combines the temporarily stored unit bit data and performs processing according to the combined audio signal processing program (S23). Each microphone unit then transmits a digital audio signal related to the collected audio to the host device 1 (S24). At this time, the digital audio signal processed by the audio signal processing unit of each microphone unit is divided into fixed unit bit data and transmitted to the microphone unit connected to the higher level, and each microphone unit cooperates to transmit serial data. And transmitting the serial data for transmission to the host device.
なお、この例では、最小ビット単位でシリアルデータに変換しているが、例えば1ワード毎に変換する等、最小ビット単位の変換に限るものではない。 In this example, the data is converted into serial data in the minimum bit unit. However, the conversion is not limited to the conversion in the minimum bit unit, for example, conversion is performed for each word.
また、仮に、接続されていないマイクユニットが存在した場合、信号がないチャンネルが存在する場合(ビットデータが0となる場合)であっても、当該チャンネルのビットデータは削除せずに、シリアルデータ内に含めて伝送する。例えば、マイクユニットの数が4つであった場合、必ず信号SDO4はビットデータが0となるが、当該信号SDO4は削除されずにビットデータ0の信号として伝送される。したがって、どの装置がどのチャンネルに対応する装置であるか、接続関係を考慮する必要もなく、どの装置にどのデータを送受信するか、等のアドレス情報も不要であり、仮に各マイクユニットの接続順を入れ替えたとしても、それぞれのマイクユニットから適切なチャンネルの信号が出力される。 Also, if there is a microphone unit that is not connected, or there is a channel without a signal (when bit data is 0), the bit data of the channel is not deleted and serial data is deleted. It is included and transmitted. For example, when the number of microphone units is four, the signal SDO4 always has bit data 0, but the signal SDO4 is transmitted as a bit data 0 signal without being deleted. Therefore, it is not necessary to consider which device corresponds to which channel, connection relationship, address information such as which data is transmitted to which device, and the connection order of each microphone unit is assumed. Even if they are switched, signals of appropriate channels are output from the respective microphone units.
このようにして、装置間をシリアルデータで伝送する構成とすれば、チャンネル数が増えたとしても装置間の信号線が増えることがない。なお、マイクユニットの起動状態を検知する検知手段は、ケーブルの接続を検知することで起動状態を検知することができるが、電源投入時に接続されているマイクユニットを検出してもよい。また、使用中に新たなマイクユニットが追加された場合は、ケーブルの接続を検知し、起動状態を検知することもできる。この場合は、接続済みマイクユニットのプログラムを消去し、再度本体からすべてのマイクユニットへ音声処理プログラムを送信することもできる。 In this way, if the configuration is such that serial data is transmitted between devices, the number of signal lines between devices will not increase even if the number of channels increases. The detection means for detecting the activation state of the microphone unit can detect the activation state by detecting the connection of the cable, but may detect the microphone unit connected when the power is turned on. In addition, when a new microphone unit is added during use, it is possible to detect the connection of the cable and detect the activation state. In this case, the program of the connected microphone unit can be deleted, and the sound processing program can be transmitted again from the main body to all the microphone units.
次に、図12は、応用例に係る信号処理システムの構成図である。応用例に係る信号処理システムでは、直列接続された子機10A〜子機10Eと、子機10Aに接続された親機(ホスト装置)1と、を備えている。図13は、子機10Aの外観斜視図である。図14は、子機10Aの構成を示すブロック図である。この応用例では、ホスト装置1は、ケーブル331を介して子機10Aに接続されている。子機10Aおよび子機10Bは、ケーブル341を介して接続されている。子機10Bおよび子機10Cは、ケーブル351を介して接続されている。子機10Cおよび子機10Dは、ケーブル361を介して接続されている。子機10Dおよび子機10Eは、ケーブル371を介して接続されている。子機10A〜子機10Eは、同じ構成からなる。したがって、以下の子機の構成の説明では、子機10Aを代表して説明する。各子機のハードウェア構成は全て同一である。
Next, FIG. 12 is a configuration diagram of a signal processing system according to an application example. The signal processing system according to the application example includes
子機10Aは、上述のマイクユニット2Aと同じ構成および機能を有する。ただし、子機10Aは、マイク25Aに代えて、複数のマイクロホンMICa〜マイクロホンMICmを備えている。また、この例では、図15に示すように、DSP22Aの音声信号処理部24Aは、増幅器11a〜増幅器11m、係数決定部120、合成部130、およびAGC140の構成を備える。
The subunit | mobile_unit 10A has the same structure and function as above-mentioned
マイクロホンの本数は、二本以上であればよく、一台の子機での収音仕様に応じて、適宜設定することができる。これに応じて、増幅器の個数も、マイクロホンの本数と同じにすればよい。例えば、円周方向に少ない本数で収音するならば三本のマイクロホンで足りる。 The number of microphones may be two or more, and can be set as appropriate according to the sound collection specifications of one slave unit. Accordingly, the number of amplifiers may be the same as the number of microphones. For example, three microphones are sufficient to collect sound with a small number in the circumferential direction.
各マイクロホンMICa〜マイクロホンMICmは、異なる収音方向を有する。すなわち、各マイクロホンMICa〜マイクロホンMICmは、所定の収音指向性を有し、特定方向を主収音方向として収音し、収音信号Sma〜収音信号Smmを生成する。具体的に、例えば、マイクロホンMICaは、第1の特定方向を主収音方向として収音し、収音信号Smaを生成する。同様に、マイクロホンMICbは、第2の特定方向を主収音方向として収音し、収音信号Smbを生成する。 Each microphone MICa to microphone MICm has a different sound collection direction. That is, each of the microphones MICa to MICm has a predetermined sound collection directivity and collects sound with a specific direction as a main sound collection direction, and generates a sound collection signal Sma to a sound collection signal Smm. Specifically, for example, the microphone MICa collects sound with the first specific direction as the main sound collection direction, and generates a sound collection signal Sma. Similarly, the microphone MICb collects sound with the second specific direction as the main sound collection direction, and generates a sound collection signal Smb.
各マイクロホンMICa〜マイクロホンMICmは、それぞれの収音指向性が異なるように、子機10Aに設置されている。言い換えれば、各マイクロホンMICa〜マイクロホンMICmは、主収音方向が異なるように、子機10Aに設置されている。
The microphones MICa to MICm are installed in the
各マイクロホンMICa〜マイクロホンMICmから出力される各収音信号Sma〜収音信号Smmは、それぞれ増幅器11a〜増幅器11mに入力される。例えば、マイクロホンMICaから出力される収音信号Smaは、増幅器11aに入力され、マイクロホンMICbから出力される収音信号Smbは、増幅器11bに入力される。マイクロホンMICmから出力される収音信号Smmは、増幅器11mに入力される。また、各収音信号Sma〜収音信号Smmは、係数決定部120に入力される。この際、各収音信号Sma〜収音信号Smmは、アナログ信号からデジタル信号に変換された後に、各増幅器11a〜増幅器11mに入力される。
The collected sound signals Sma to Smm output from the microphones MICa to MICm are input to the
係数決定部120は、収音信号Sma〜収音信号Smmの信号パワーを検出する。各収音信号Sma〜収音信号Smmの信号パワーを比較し、最大パワーとなる収音信号を検出する。係数決定部120は、最大パワーと検出された収音信号に対するゲイン係数を「1」とする。係数決定部120は、最大パワーと検出された収音信号以外の収音信号に対するゲイン係数を「0」とする。
The
係数決定部120は、決定したゲイン係数を、増幅器11a〜増幅器11mに出力する。具体的には、係数決定部120は、最大パワーと検出された収音信号が入力される増幅器にはゲイン係数=「1」を出力し、それ以外の増幅器にはゲイン係数=「0」を出力する。
The
係数決定部120は、最大パワーと検出された収音信号の信号レベルを検出して、レベル情報IFo10Aを生成する。係数決定部120は、レベル情報IFo10Aを、FPGA51Aに出力する。
The
増幅器11a〜増幅器11mは、ゲイン調整可能な増幅器である。増幅器11a〜増幅器11mは、収音信号Sma〜収音信号Smmを、係数決定部120から与えられたゲイン係数で増幅し、それぞれに、増幅後収音信号Smga〜増幅後収音信号Smgmを生成する。具体的に、例えば、増幅器11aは、係数決定部120からのゲイン係数で収音信号Smaを増幅して、増幅後収音信号Smgaを出力する。増幅器11bは、係数決定部120からのゲイン係数で収音信号Smbを増幅して、増幅後収音信号Smgbを出力する。増幅器11mは、係数決定部120からのゲイン係数で収音信号Smmを増幅して、増幅後収音信号Smgmを出力する。
The
ここで、上述のように、ゲイン係数は、「1」もしくは「0」であるので、ゲイン係数=「1」が与えられた増幅器は、収音信号の信号レベルをそのまま維持して出力する。この場合、増幅後収音信号は、収音信号のままとなる。 Here, as described above, since the gain coefficient is “1” or “0”, the amplifier to which gain coefficient = “1” is given outputs while maintaining the signal level of the collected sound signal as it is. In this case, the amplified sound collection signal remains the sound collection signal.
一方、ゲイン係数=「0」が与えられた増幅器は、収音信号の信号レベルを「0」に抑圧する。この場合、増幅後収音信号は、信号レベル「0」の信号となる。 On the other hand, the amplifier given the gain coefficient = “0” suppresses the signal level of the collected sound signal to “0”. In this case, the amplified sound pickup signal is a signal having a signal level “0”.
各増幅後収音信号Smga〜Smgmは、合成部130に入力される。合成部130は、加算器であり、各増幅後収音信号Smga〜増幅後収音信号Smgmを加算することで、子機音声信号Sm10Aを生成する。
Each amplified sound collection signal Smga to Smgm is input to the
ここで、増幅後収音信号Smga〜増幅後収音信号Smgmは、当該増幅後収音信号Smga〜Smgmの元となる収音信号Sma〜収音信号Smmの最大パワーのものだけが、収音信号に応じた信号レベルであり、他のものは信号レベルが「0」である。 Here, after the amplified sound pickup signal Smga to the amplified sound pickup signal Smgm, only those having the maximum power of the sound pickup signal Sma to the sound pickup signal Smm that are the sources of the amplified sound pickup signals Smga to Smgm are collected. The signal level is in accordance with the signal, and the others have a signal level of “0”.
したがって、増幅後収音信号Smga〜増幅後収音信号Smgmを加算した子機音声信号Sm10Aは、最大パワーと検出された収音信号そのものとなる。 Therefore, the handset audio signal Sm10A obtained by adding the amplified sound pickup signal Smga to the amplified sound pickup signal Smgm is the sound pickup signal itself detected as the maximum power.
このような処理を行うことで、最大パワーの収音信号を検出して、子機音声信号Sm10Aとして出力することができる。この処理は、所定の時間間隔をおいて逐次実行される。したがって、最大パワーの収音信号が変化すれば、すなわち、この最大パワーの収音信号の音源が移動すれば、この変化および移動に応じて、子機音声信号Sm10Aとなる収音信号も変化する。これにより、各マイクロホンの収音信号に基づいて音源を追尾し、音源からの音を最も効率良く収音した子機音声信号Sm10Aを出力することができる。 By performing such processing, it is possible to detect the collected sound signal with the maximum power and output it as the child device audio signal Sm10A. This process is sequentially executed at a predetermined time interval. Therefore, if the sound collecting signal with the maximum power changes, that is, if the sound source of the sound collecting signal with the maximum power moves, the sound collecting signal that becomes the slave unit audio signal Sm10A also changes in accordance with this change and movement. . As a result, the sound source can be tracked based on the sound collection signal of each microphone, and the child device sound signal Sm10A that has collected the sound from the sound source most efficiently can be output.
AGC140は、所謂、オートゲインコントロールアンプであり、子機音声信号Sm10Aを、所定ゲインで増幅して、FPGA51Aに出力する。AGC140で設定するゲインは、通信仕様に応じて適宜設定される。具体的には、例えば、AGC140で設定するゲインは、予め伝送損失を見積もっておき、当該伝送損失を補償するように設定される。
The
このような子機音声信号Sm10Aのゲインコントロールを行うことで、子機10Aからホスト装置1へ、子機音声信号Sm10Aを正確且つ確実に送信することができる。これにより、ホスト装置1は、子機音声信号Sm10Aを正確且つ確実に受信し、復調することができる。
By performing such gain control of the slave unit audio signal Sm10A, the slave unit audio signal Sm10A can be accurately and reliably transmitted from the
そして、FPGA51Aには、AGC後の子機音声信号Sm10Aとレベル情報IFo10Aとが入力される。
Then, the handset audio signal Sm10A after AGC and the level information IFO10A are input to the
FPGA51Aは、AGC後の子機音声信号Sm10Aとレベル情報IFo10Aとから子機データD10Aを生成して、ホスト装置1に送信する。この際、レベル情報IFo10Aは、同じ子機データに割り当てられる子機音声信号Sm10Aと同期したデータである。
The
図16は、子機からホスト装置に送信される子機データのデータフォーマット例を示す図である。子機データD10Aは、送信元である子機が識別可能なヘッダDH、子機音声信号Sm10A、レベル情報IFo10Aがそれぞれ所定ビット数割り当てられたデータである。例えば、図16に示すように、ヘッダDHの後に子機音声信号Sm10Aが所定ビット割り当てられ、子機音声信号Sm10Aのビット列の後にレベル情報IFo10Aが所定ビット割り当てられている。 FIG. 16 is a diagram showing a data format example of slave unit data transmitted from the slave unit to the host device. The slave unit data D10A is data in which a header DH, a slave unit audio signal Sm10A, and level information IFO10A that can be identified by the slave unit that is the transmission source are respectively assigned a predetermined number of bits. For example, as shown in FIG. 16, the slave unit audio signal Sm10A is assigned a predetermined bit after the header DH, and the level information IFO10A is assigned a predetermined bit after the bit string of the slave unit audio signal Sm10A.
他の子機10B〜10Eも、上述の子機10Aと同様に、それぞれに子機音声信号Sm10B〜子機音声信号Sm10Eとレベル情報IFo10B〜レベル情報IFo10Eとを含む子機データD10B〜子機データD10Eを生成して、ホスト装置1に出力する。なお、子機データD10B〜子機データD10Eは、それぞれ一定の単位ビットデータに分割されて上位に接続された子機に送信されることにより、各子機が協同してシリアルデータを作成することになる。
Similarly to the above-described
図17は、ホスト装置1のCPU12が所定の音声信号処理プログラムを実行することにより実現される各種構成を示すブロック図である。
FIG. 17 is a block diagram showing various configurations realized by the
ホスト装置1のCPU12は、複数の増幅器21a〜増幅器21e、係数決定部220、および合成部230を備える。
The
通信I/F11には、各子機10A〜子機10Eからの子機データD10A〜子機データD10Eが入力される。通信I/F11は、子機データD10A〜子機データD10Eを復調し、子機音声信号Sm10A〜子機音声信号Sm10Eと、各レベル情報IFo10A〜レベル情報IFo10Eを取得する。
The child device data D10A to child device data D10E from each
通信I/F11は、子機音声信号Sm10A〜子機音声信号Sm10Eをそれぞれ増幅器21a〜増幅器21eに出力する。具体的には、通信I/F11は、子機音声信号Sm10Aを増幅器21aに出力し、子機音声信号Sm10Bを増幅器21bに出力する。同様に、通信I/F11は、子機音声信号Sm10Eを増幅器21eに出力する。
The communication I /
通信I/F11は、レベル情報IFo10A〜レベル情報IFo10Eを係数決定部220に出力する。
The communication I /
係数決定部220は、レベル情報IFo10A〜レベル情報IFo10Eを比較し、最大のレベル情報を検出する。
The
係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号に対するゲイン係数を「1」とする。係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号以外の収音信号に対するゲイン係数を「0」とする。
The
係数決定部220は、決定したゲイン係数を、増幅器21a〜増幅器21eに出力する。具体的には、係数決定部220は、最大レベルと検出されたレベル情報に対応する子機音声信号が入力される増幅器にはゲイン係数=「1」を出力し、それ以外の増幅器にはゲイン係数=「0」を出力する。
The
増幅器21a〜増幅器21eは、ゲイン調整可能な増幅器である。増幅器21a〜21eは、子機音声信号Sm10A〜子機音声信号Sm10Eを、係数決定部220から与えられたゲイン係数で増幅し、それぞれに、増幅後音声信号Smg10A〜増幅後音声信号Smg10Eを生成する。
The
具体的に、例えば、増幅器21aは、係数決定部220からのゲイン係数で子機音声信号Sm10Aを増幅して、増幅後音声信号Smg10Aを出力する。増幅器21bは、係数決定部220からのゲイン係数で子機音声信号Sm10Bを増幅して、増幅後音声信号Smg10Bを出力する。増幅器21eは、係数決定部220からのゲイン係数で子機音声信号Sm10Eを増幅して、増幅後音声信号Smg10Eを出力する。
Specifically, for example, the
ここで、上述のように、ゲイン係数は、「1」もしくは「0」であるので、ゲイン係数=「1」が与えられた増幅器は、子機音声信号の信号レベルをそのまま維持して出力する。この場合、増幅後音声信号は、子機音声信号のままとなる。 Here, as described above, since the gain coefficient is “1” or “0”, the amplifier to which gain coefficient = “1” is output while maintaining the signal level of the slave unit audio signal as it is. . In this case, the amplified audio signal remains the slave audio signal.
一方、ゲイン係数=「0」が与えられた増幅器は、子機音声信号の信号レベルを「0」に抑圧する。この場合、増幅後音声信号は、信号レベル「0」の信号となる。 On the other hand, the amplifier to which gain coefficient = “0” is given suppresses the signal level of the slave unit audio signal to “0”. In this case, the amplified audio signal is a signal having a signal level “0”.
各増幅後音声信号Smg10A〜増幅後音声信号Smg10Eは、合成部230に入力される。合成部230は、加算器であり、各増幅後音声信号Smg10A〜増幅後音声信号Smg10Eを加算することで、追尾音声信号を生成する。
The amplified audio signal Smg10A to the amplified audio signal Smg10E are input to the
ここで、増幅後音声信号Smg10A〜増幅後音声信号Smg10Eは、当該増幅後音声信号Smg10A〜Smg10Eの元となる子機音声信号Sm10A〜子機音声信号Sm10Eの最大レベルのものだけが、子機音声信号に応じた信号レベルであり、他のものは信号レベルが「0」である。 Here, the amplified audio signal Smg10A to the amplified audio signal Smg10E are only those having the maximum level of the child machine audio signal Sm10A to the child machine audio signal Sm10E that are the sources of the amplified audio signals Smg10A to Smg10E. The signal level is in accordance with the signal, and the others have a signal level of “0”.
したがって、増幅後音声信号Smg10A〜増幅後音声信号Smg10Eを加算した追尾音声信号は、最大レベルと検出された子機音声信号そのものとなる。 Therefore, the tracking audio signal obtained by adding the amplified audio signal Smg10A to the amplified audio signal Smg10E is the child device audio signal itself detected as the maximum level.
このような処理を行うことで、最大レベルの子機音声信号を検出して、追尾音声信号として出力することができる。この処理は、所定の時間間隔をおいて逐次実行される。したがって、最大レベルの子機音声信号が変化すれば、すなわち、この最大レベルの子機音声信号の音源が移動すれば、この変化および移動に応じて、追尾音声信号となる子機音声信号も変化する。これにより、各子機の子機音声信号に基づいて音源を追尾し、音源からの音を最も効率良く収音した追尾音声信号を出力することができる。 By performing such processing, it is possible to detect the child audio signal at the maximum level and output it as a tracking audio signal. This process is sequentially executed at a predetermined time interval. Therefore, if the child audio signal at the maximum level changes, that is, if the sound source of the child audio signal at the maximum level moves, the child audio signal that becomes the tracking audio signal also changes in accordance with this change and movement. To do. As a result, the sound source can be tracked based on the handset sound signal of each handset, and a tracking sound signal obtained by collecting sound from the sound source most efficiently can be output.
そして、以上のような構成および処理を行うことで、子機10A〜子機10Eによって、マイクロホンの収音信号による第1段の音源追尾が行われ、ホスト装置1によって、各子機10A〜子機10Eの子機音声信号による第2段の音源追尾が行われる。これにより、複数の子機10A〜子機10Eの複数のマイクロホンMICa〜マイクロホンMICmによる、音源追尾を実現することができる。したがって、子機10A〜子機10Eの個数、および配置パターンを適宜設定することで、収音範囲の大きさや、話者等の音源位置に影響されることなく、確実に音源追尾を行うことができる。このため、音源の位置に依存することなく、音源からの音声を高品質に収音することができる。
Then, by performing the configuration and processing as described above, the
さらに、子機10A〜子機10Eが送信する音声信号数は、子機に装着されるマイクロホンの本数に依存することなく、1つである。したがって、全てのマイクロホンの収音信号を、ホスト装置に送信するよりも、通信データ量を軽減することができる。例えば、各子機に装着されるマイクロホンの本数がm本の場合、各子機からホスト装置に送信される音声データ数は、全ての収音信号をホスト装置に送信する場合の(1/m)となる。
Furthermore, the number of audio signals transmitted by the
このように本実施形態の構成および処理を用いることで、全ての収音信号をホスト装置に送信する場合と同じ音源追尾精度を有しながら、通信負荷を軽減することができる。これにより、よりリアルタイムな音源追尾が可能になる。 As described above, by using the configuration and processing of the present embodiment, it is possible to reduce the communication load while having the same sound source tracking accuracy as when all the collected sound signals are transmitted to the host device. As a result, more real-time sound source tracking becomes possible.
図18は本発明の実施形態に係る子機の音源追尾処理のフローチャートである。以下、一台の子機の処理フローを説明するが、複数の子機は同じフローの処理を実行する。また、詳細な処理の内容は、上述の記載されているものであるので、以下では詳細な説明を省略する。 FIG. 18 is a flowchart of the sound source tracking process of the slave unit according to the embodiment of the present invention. Hereinafter, the processing flow of one slave unit will be described, but a plurality of slave units execute the same flow of processing. In addition, since the details of the processing are described above, detailed description thereof will be omitted below.
子機は、各マイクロホンで収音し、収音信号を生成する(S101)。子機は、各マイクロホンの収音信号のレベルを検出する(S102)。子機は、最大パワーの収音信号を検出し、当該最大パワーの収音信号のレベル情報を生成する(S103)。 The slave unit collects sound with each microphone and generates a collected signal (S101). The slave unit detects the level of the collected sound signal of each microphone (S102). The handset detects the maximum power collected signal and generates level information of the maximum power collected signal (S103).
子機は、各収音信号に対するゲイン係数を決定する(S104)。具体的には、子機は、最大パワーの収音信号のゲインを「1」に設定し、それ以外の収音信号のゲインを「0」に設定する。 The slave unit determines a gain coefficient for each collected sound signal (S104). Specifically, the slave unit sets the gain of the collected sound signal with the maximum power to “1”, and sets the gains of the other collected sound signals to “0”.
子機は、決定したゲイン係数で各収音信号を増幅処理する(S105)。子機は、増幅後の収音信号を合成し、子機音声信号を生成する(S106)。 The slave unit amplifies each collected sound signal with the determined gain coefficient (S105). The slave unit synthesizes the amplified sound pickup signals to generate a slave unit voice signal (S106).
子機は、子機音声信号をAGC処理し(S107)、AGC処理後の子機音声信号とレベル情報を含む子機データを生成して、ホスト装置に出力する(S108)。 The slave unit performs AGC processing on the slave unit voice signal (S107), generates slave unit data including the slave unit voice signal and level information after the AGC process, and outputs the slave unit data to the host device (S108).
図19は本発明の実施形態に係るホスト装置の音源追尾処理のフローチャートである。また、詳細な処理の内容は、上述の記載されているものであるので、以下では詳細な説明を省略する。 FIG. 19 is a flowchart of the sound source tracking process of the host device according to the embodiment of the present invention. In addition, since the details of the processing are described above, detailed description thereof will be omitted below.
ホスト装置1は、各子機から子機データを受信して、子機音声信号とレベル情報を取得する(S201)。ホスト装置1は、各子機からのレベル情報を比較し、最大レベルの子機音声信号を検出する(S202)。
The
ホスト装置1は、各子機音声信号に対するゲイン係数を決定する(S203)。具体的には、ホスト装置1は、最大レベルの子機音声信号のゲインを「1」に設定し、それ以外の子機音声信号のゲインを「0」に設定する。
The
ホスト装置1は、決定したゲイン係数で各子機音声信号を増幅処理する(S204)。ホスト装置1は、増幅後の子機音声信号を合成し、追尾音声信号を生成する(S205)。
The
なお、上述の説明では、最大パワーの収音信号が切り替わるタイミングで、元最大パワーの収音信号のゲイン係数を「1」から「0」に設定し、新たな最大パワーの収音信号のゲイン係数を「0」から「1」に切り替えるようにした。しかしながら、これらのゲイン係数を、より詳細な段階的に変化させるようにしてもよい。例えば、元最大パワーの収音信号のゲイン係数を「1」から「0」になるように徐々に低下させ、新たな最大パワーの収音信号のゲイン係数を「0」から「1」になるように徐々に増加させる。すなわち、元最大パワーの収音信号から、新たな最大パワーの収音信号にクロスフェード処理を行うようにしてもよい。この際、これらのゲイン係数の和は「1」となるようにする。 In the above description, the gain coefficient of the original maximum power sound collection signal is set from “1” to “0” at the timing when the maximum power sound collection signal is switched, and the gain of the new maximum power sound collection signal is set. The coefficient is switched from “0” to “1”. However, these gain coefficients may be changed in more detailed steps. For example, the gain coefficient of the original maximum power sound pickup signal is gradually decreased from “1” to “0”, and the gain coefficient of the new maximum power sound pickup signal is changed from “0” to “1”. So as to gradually increase. That is, the cross-fading process may be performed from the original maximum power collected signal to the new maximum power collected signal. At this time, the sum of these gain coefficients is set to “1”.
そして、このようなクロスフェード処理は、子機で行われる収音信号の合成のみでなく、ホスト装置1で行われる子機音声信号の合成に適用してもよい。
Such a cross-fade process may be applied not only to the synthesis of the collected sound signal performed in the slave unit but also to the synthesis of the slave unit audio signal performed in the
また、上述の説明では、AGCを各子機10A〜子機10Eに設ける例を示したが、ホスト装置1に設けてもよい。この場合、ホスト装置1の通信I/F11でAGCを行えばよい。
In the above description, an example in which the AGC is provided in each of the
なお、ホスト装置1は、図20のフローチャートに示すように、スピーカ102から各子機に向けて試験用音波を発して各子機に当該試験用音波のレベルを判定させることも可能である。
As shown in the flowchart of FIG. 20, the
まず、ホスト装置1は、子機の起動状態を検知すると(S51)、不揮発性メモリ14からレベル判定用プログラムを読み出し(S52)、通信I/F11を介して各子機に送信する(S53)。このとき、ホスト装置1のCPU12は、レベル判定用プログラムを一定の単位ビットデータに分割し、単位ビットデータを各子機が受け取る順に配列したシリアルデータを作成して、子機へ送信する。
First, when the
各子機は、ホスト装置1から送信されたレベル判定用プログラムを受信する(S71)。レベル判定用プログラムは、揮発性メモリ23Aに一時記憶する(S72)。このとき、各子機は、シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した単位ビットデータを一時記憶する。そして、各子機は、一時記憶した単位ビットデータを結合し、結合したレベル判定用プログラムを実行する(S73)。これにより、音声信号処理部24は、図15に示した構成を実現する。ただし、レベル判定用プログラムは、レベル判定を行うだけであり、子機音声信号Sm10Aを生成して送信する必要はないため、増幅器11a〜増幅器11m、係数決定部120、合成部130、およびAGC140の構成は不要である。
Each slave unit receives the level determination program transmitted from the host device 1 (S71). The level determination program is temporarily stored in the
そして、ホスト装置1は、レベル判定用プログラムを送信してから所定時間経過後に試験用音波を発する(S54)。各子機の係数決定部220は、音声レベル判定手段として機能し、複数のマイクロホンMICa〜マイクロホンMICmに入力された試験用音波のレベルを判定する(S74)。係数決定部220は、判定結果となるレベル情報(レベルデータ)をホスト装置1に送信する(S75)。レベルデータは、複数のマイクロホンMICa〜マイクロホンMICmそれぞれについて送信してもよいし、子機毎に最大レベルを示したレベルデータのみを送信してもよい。なお、レベルデータは、一定の単位ビットデータに分割して上位に接続された子機に送信されることにより、各子機が協同してレベル判定用シリアルデータを作成することになる。
Then, the
次に、ホスト装置1は、各子機からレベルデータを受信する(S55)。ホスト装置1は、受信したレベルデータに基づいて、各子機に送信すべき音声信号処理プログラムを選択し、これらプログラムを不揮発性メモリ14から読み出す(s56)。例えば、試験用音波のレベルが高い子機は、エコーのレベルが高いと判断し、エコーキャンセラのプログラムを選択する。また、試験用音波のレベルが低い子機は、エコーのレベルが低いと判断し、ノイズキャンセラのプログラムを選択する。そして、ホスト装置1は、読み出した音声信号処理プログラムを各子機に送信する(s57)。以後の処理は、図11に示したフローチャートと同じであるため、説明を省略する。
Next, the
なお、ホスト装置1は、受信したレベルデータに基づいてエコーキャンセラのプログラムにおける各子機のフィルタ係数の数を変更し、各子機へフィルタ係数の数を変更するための変更パラメータを定めてもよい。例えば、試験用音波のレベルが高い子機にはタップ数を増加し、試験用音波のレベルが低い子機にはタップ数を減少する。この場合、ホスト装置1は、この変更パラメータを一定の単位ビットデータに分割して、単位ビットデータを各子機が受け取る順に配列した変更パラメータ用シリアルデータを作成し、各子機へ送信する。
The
なお、エコーキャンセラは、各子機における複数のマイクロホンMICa〜マイクロホンMICmのそれぞれについて備える態様とすることも可能である。この場合、各子機の係数決定部220は、複数のマイクロホンMICa〜マイクロホンMICmのそれぞれについてレベルデータを送信する。
Note that the echo canceller may be provided for each of the plurality of microphones MICa to MICm in each slave unit. In this case, the
また、上述のレベル情報IFo10A〜レベル情報IFo10Eには、各子機におけるマイクロホンの識別情報が含まれていてもよい。 Further, the above-described level information IFO10A to level information IFO10E may include microphone identification information in each slave unit.
この場合、図21に示すように、子機は、最大パワーの収音信号を検出し、当該最大パワーの収音信号のレベル情報を生成したとき(S801)、最大パワーが検出されたマイクロホンの識別情報をレベル情報に含めて送信する(S802)。 In this case, as shown in FIG. 21, when the slave unit detects the maximum power pickup signal and generates level information of the maximum power pickup signal (S801), the slave unit detects the maximum power of the microphone. The identification information is included in the level information and transmitted (S802).
そして、ホスト装置1は、各子機からレベル情報を受信し(S901)、最大レベルとなるレベル情報を選択したときに、当該選択されたレベル情報に含まれているマイクロホンの識別情報に基づいて当該マイクロホンを特定することで、使用されているエコーキャンセラを特定する(S902)。ホスト装置1は、特定されたエコーキャンセラを使用している子機に対して、当該エコーキャンセラに関係する各信号の送信リクエストを行う(S903)。
Then, the
そして、子機は、送信リクエストを受信した場合(S803)、ホスト装置1に対して、指定されたエコーキャンセラから擬似回帰音信号、収音信号NE1(前段のエコーキャンセラによりエコー成分が除去される前の収音信号)、および収音信号NE1’(前段のエコーキャンセラによりエコー成分が除去された後の収音信号)の各信号を送信する(S804)。 When receiving the transmission request (S803), the slave unit receives the pseudo-regression sound signal and the collected sound signal NE1 from the designated echo canceller with respect to the host device 1 (the echo component is removed by the preceding echo canceller). The previous sound collection signal) and the sound collection signal NE1 ′ (the sound collection signal after the echo component is removed by the previous echo canceller) are transmitted (S804).
ホスト装置1は、これら各信号を受信し(S904)、受信した各信号をエコーサプレッサに入力する(S905)。これにより、エコーサプレッサのエコー生成部125には、特定されたエコーキャンセラの学習進捗度に応じた係数が設定されるため、適切な残留エコー成分を生成することができる。
The
なお、図22に示すように、進捗度算出部124は、音声信号処理部24A側に設ける態様とすることも可能である。この場合、ホスト装置1は、図21のS903において、特定したエコーキャンセラを使用している子機に対して、学習進捗度に応じて変化する係数の送信をリクエストする。子機は、S804において、進捗度算出部124で算出される係数を読み出し、ホスト装置1に送信する。エコー生成部125では、受信した係数および擬似回帰音信号に応じて残留エコー成分が生成される。
As shown in FIG. 22, the progress
次に、図23は、ホスト装置および子機の配置に関する変形例を示した図である。図23(A)は、図12に示した接続態様と同じであるが、子機10Cがホスト装置1に最も遠く、子機10Eがホスト装置1に最も近くなる例を示している。すなわち、子機10Cおよび子機10Dを接続するケーブル361が曲げられて子機10Dおよび子機10Eがホスト装置1に近づくようになっている。
Next, FIG. 23 is a diagram illustrating a modification example regarding the arrangement of the host device and the slave units. FIG. 23A shows an example in which the
一方、図23(B)の例では、子機10Cがケーブル331を介してホスト装置1に接続されている。この場合、子機10Cは、ホスト装置1から送信されたデータを分岐して子機10Bおよび子機10Dに送信する。また、子機10Cは、子機10Bから送信されたデータと、子機10Dから送信されたデータと、自装置のデータと、をまとめてホスト装置1に送信する。この場合も、直列接続された複数の子機のいずれか1つにホスト装置が接続されていることになる。
On the other hand, in the example of FIG. 23B, the
本発明を詳細にまた特定の実施態様を参照して説明してきたが、本発明の精神、範囲または意図の範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。 Although the invention has been described in detail and with reference to particular embodiments, it will be apparent to those skilled in the art that various changes and modifications can be made without departing from the spirit, scope or scope of the invention. is there.
1…ホスト装置
2A,2B,2C,2D,2E…マイクユニット
11…通信I/F
12…CPU
13…RAM
14…不揮発性メモリ
21A…通信I/F
22A…DSP
23A…揮発性メモリ
24A…音声信号処理部
25A…マイク
DESCRIPTION OF
12 ... CPU
13 ... RAM
14 ...
22A ... DSP
23A ...
Claims (7)
各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備え、
前記ホスト装置は、前記マイクユニット用の音声処理プログラムを記憶した不揮発性メモリを備え、
前記ホスト装置が、前記不揮発性メモリから読み出した前記音声処理プログラムを前記各マイクユニットへ送信し、
前記各マイクユニットは、前記一時記憶用メモリに前記音声処理プログラムを一時記憶し、
前記処理部は、前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする信号処理システム。 A signal processing system comprising a plurality of microphone units connected in series and a host device connected to one of the plurality of microphone units,
Each microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone,
The host device includes a non-volatile memory that stores a sound processing program for the microphone unit,
The host device transmits the audio processing program read from the nonvolatile memory to each microphone unit,
Each of the microphone units temporarily stores the voice processing program in the temporary storage memory,
The signal processing system, wherein the processing unit performs processing according to a voice processing program temporarily stored in the temporary storage memory, and transmits the processed voice to the host device.
前記各マイクユニットは、前記シリアルデータから自己が受け取るべき単位ビットデータを抜き出して受け取り、抜き出した前記単位ビットデータを一時記憶し、
前記処理部は、前記単位ビットデータを結合した音声処理プログラムに応じた処理を行う請求項1に記載の信号処理システム。 The host device divides the audio processing program into fixed unit bit data, creates serial data in which the unit bit data is arranged in an order received by each microphone unit, and transmits the serial data to each microphone unit.
Each microphone unit extracts and receives unit bit data that it should receive from the serial data, temporarily stores the extracted unit bit data,
The signal processing system according to claim 1, wherein the processing unit performs processing according to an audio processing program in which the unit bit data is combined.
前記ホスト装置は、スピーカを有し、
該スピーカから各マイクユニットに向けて試験用音波を発し、
各マイクユニットは、前記複数のマイクロホンに入力された前記試験用音波のレベルを判定し、判定結果となるレベルデータを一定の単位ビットデータに分割して上位に接続されたマイクユニットに送信し、各マイクユニットが協同してレベル判定用シリアルデータを作成する請求項1乃至請求項3のいずれかに記載の信号処理システム。 The microphone unit includes a plurality of microphones having different sound collection directions, and a sound level determination unit.
The host device has a speaker,
A test sound wave is emitted from the speaker toward each microphone unit,
Each microphone unit determines the level of the test sound wave input to the plurality of microphones, divides the level data as a determination result into fixed unit bit data, and transmits it to the microphone unit connected to the upper level, The signal processing system according to any one of claims 1 to 3, wherein the microphone units cooperate to create level determination serial data.
前記ホスト装置は、各マイクユニットから受けとったレベルデータに基づいて各マイクユニットのフィルタ係数の数を変更し、各マイクユニットへフィルタ係数の数を変更するための変更パラメータを定め、該変更パラメータを一定の単位ビットデータに分割して、前記単位ビットデータを各マイクユニットが受け取る順に配列した変更パラメータ用シリアルデータを作成し、前記各マイクユニットへ前記変更パラメータ用シリアルデータを送信する請求項1乃至請求項4のいずれかに記載の信号処理システム。 The speech processing program comprises an echo cancellation program for realizing an echo canceller in which filter coefficients are updated, and the echo cancellation program has a filter coefficient setting unit that determines the number of filter coefficients,
The host device changes the number of filter coefficients of each microphone unit based on the level data received from each microphone unit, determines a change parameter for changing the number of filter coefficients to each microphone unit, and sets the change parameter to The change parameter serial data is generated by dividing the unit bit data into constant unit bit data, arranging the unit bit data in the order in which each microphone unit receives them, and transmitting the change parameter serial data to each microphone unit. The signal processing system according to claim 4.
前記ホスト装置は、前記レベルデータから各マイクユニットへ送信するプログラムを前記エコーキャンセルプログラムまたは前記ノイズキャンセルプログラムのいずれかに定めることを特徴とする請求項5に記載の信号処理システム。 The audio processing program is the echo cancellation program or a noise cancellation program that removes noise components,
The signal processing system according to claim 5, wherein the host device determines a program to be transmitted from the level data to each microphone unit as either the echo cancellation program or the noise cancellation program.
各マイクユニットは、音声を収音するマイクと、一時記憶用メモリと、前記マイクが収音した音声を処理する処理部と、を備え、
前記ホスト装置は、前記マイクユニット用の音声処理プログラムを保持した不揮発性メモリを備え、
前記ホスト装置は、起動状態を検知すると、前記不揮発性メモリから前記音声処理プログラムを読み出し、前記各マイクユニットへ送信し、
前記各マイクユニットは、前記音声処理プログラムを前記一時記憶用メモリに一時記憶し、
前記処理部は、前記一時記憶用メモリに一時記憶された音声処理プログラムに応じた処理を行い、当該処理後の音声を前記ホスト装置に送信することを特徴とする信号処理方法。 A signal processing method comprising a plurality of microphone units connected in series and a host device connected to one of the plurality of microphone units,
Each microphone unit includes a microphone that collects sound, a temporary storage memory, and a processing unit that processes sound collected by the microphone,
The host device includes a nonvolatile memory that holds a voice processing program for the microphone unit,
When the host device detects an activation state, the host device reads the voice processing program from the nonvolatile memory, and transmits it to the microphone units.
Each of the microphone units temporarily stores the voice processing program in the temporary storage memory,
The signal processing method, wherein the processing unit performs processing according to a voice processing program temporarily stored in the temporary storage memory, and transmits the processed voice to the host device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013233692A JP6090120B2 (en) | 2012-11-12 | 2013-11-12 | Signal processing system and signal processing method |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012248158 | 2012-11-12 | ||
JP2012248158 | 2012-11-12 | ||
JP2012249609 | 2012-11-13 | ||
JP2012249609 | 2012-11-13 | ||
JP2012249607 | 2012-11-13 | ||
JP2012249607 | 2012-11-13 | ||
JP2013233692A JP6090120B2 (en) | 2012-11-12 | 2013-11-12 | Signal processing system and signal processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017021872A Division JP6299895B2 (en) | 2012-11-12 | 2017-02-09 | Microphone unit, host device, and signal processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014116930A true JP2014116930A (en) | 2014-06-26 |
JP6090120B2 JP6090120B2 (en) | 2017-03-08 |
Family
ID=50681709
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013233694A Active JP6090121B2 (en) | 2012-11-12 | 2013-11-12 | Sound collection system |
JP2013233693A Pending JP2014116931A (en) | 2012-11-12 | 2013-11-12 | Signal processing device and signal processing system |
JP2013233692A Active JP6090120B2 (en) | 2012-11-12 | 2013-11-12 | Signal processing system and signal processing method |
JP2017021878A Active JP6330936B2 (en) | 2012-11-12 | 2017-02-09 | Host device and microphone unit |
JP2017021872A Active JP6299895B2 (en) | 2012-11-12 | 2017-02-09 | Microphone unit, host device, and signal processing system |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013233694A Active JP6090121B2 (en) | 2012-11-12 | 2013-11-12 | Sound collection system |
JP2013233693A Pending JP2014116931A (en) | 2012-11-12 | 2013-11-12 | Signal processing device and signal processing system |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017021878A Active JP6330936B2 (en) | 2012-11-12 | 2017-02-09 | Host device and microphone unit |
JP2017021872A Active JP6299895B2 (en) | 2012-11-12 | 2017-02-09 | Microphone unit, host device, and signal processing system |
Country Status (8)
Country | Link |
---|---|
US (3) | US9497542B2 (en) |
EP (3) | EP2882202B1 (en) |
JP (5) | JP6090121B2 (en) |
KR (2) | KR20170017000A (en) |
CN (2) | CN107172538B (en) |
AU (1) | AU2013342412B2 (en) |
CA (1) | CA2832848A1 (en) |
WO (1) | WO2014073704A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017033260A1 (en) * | 2015-08-24 | 2017-03-02 | ヤマハ株式会社 | Sound acquisition device, and sound acquisition method |
JP2020505862A (en) * | 2017-01-27 | 2020-02-20 | シュアー アクイジッション ホールディングス インコーポレイテッドShure Acquisition Holdings,Inc. | Array microphone module and system |
CN112585993A (en) * | 2018-07-20 | 2021-03-30 | 索尼互动娱乐股份有限公司 | Sound signal processing system and sound signal processing device |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9699550B2 (en) | 2014-11-12 | 2017-07-04 | Qualcomm Incorporated | Reduced microphone power-up latency |
US9407989B1 (en) | 2015-06-30 | 2016-08-02 | Arthur Woodrow | Closed audio circuit |
US10014137B2 (en) | 2015-10-03 | 2018-07-03 | At&T Intellectual Property I, L.P. | Acoustical electrical switch |
US9704489B2 (en) * | 2015-11-20 | 2017-07-11 | At&T Intellectual Property I, L.P. | Portable acoustical unit for voice recognition |
WO2017132958A1 (en) * | 2016-02-04 | 2017-08-10 | Zeng Xinxiao | Methods, systems, and media for voice communication |
DE102016113831A1 (en) * | 2016-07-27 | 2018-02-01 | Neutrik Ag | wiring arrangement |
US10387108B2 (en) * | 2016-09-12 | 2019-08-20 | Nureva, Inc. | Method, apparatus and computer-readable media utilizing positional information to derive AGC output parameters |
US10362412B2 (en) * | 2016-12-22 | 2019-07-23 | Oticon A/S | Hearing device comprising a dynamic compressive amplification system and a method of operating a hearing device |
CN106782584B (en) * | 2016-12-28 | 2023-11-07 | 北京地平线信息技术有限公司 | Audio signal processing device, method and electronic device |
KR101898798B1 (en) * | 2017-01-10 | 2018-09-13 | 순천향대학교 산학협력단 | Ultrasonic sensor system for the parking assistance system using the diversity technique |
CN106937009B (en) * | 2017-01-18 | 2020-02-07 | 苏州科达科技股份有限公司 | Cascade echo cancellation system and control method and device thereof |
EP3641141A4 (en) * | 2017-06-12 | 2021-02-17 | Audio-Technica Corporation | Voice signal processing device, voice signal processing method and voice signal processing program |
JP2019047148A (en) * | 2017-08-29 | 2019-03-22 | 沖電気工業株式会社 | Multiplexer, multiplexing method and program |
JP6983583B2 (en) * | 2017-08-30 | 2021-12-17 | キヤノン株式会社 | Sound processing equipment, sound processing systems, sound processing methods, and programs |
WO2019067718A2 (en) * | 2017-09-29 | 2019-04-04 | Dolby Laboratories Licensing Corporation | Howl detection in conference systems |
CN107818793A (en) * | 2017-11-07 | 2018-03-20 | 北京云知声信息技术有限公司 | A kind of voice collecting processing method and processing device for reducing useless speech recognition |
CN107750038B (en) * | 2017-11-09 | 2020-11-10 | 广州视源电子科技股份有限公司 | Volume adjusting method, device, equipment and storage medium |
CN107898457B (en) * | 2017-12-05 | 2020-09-22 | 江苏易格生物科技有限公司 | Method for clock synchronization between group wireless electroencephalogram acquisition devices |
US11336999B2 (en) | 2018-03-29 | 2022-05-17 | Sony Corporation | Sound processing device, sound processing method, and program |
CN110611537A (en) * | 2018-06-15 | 2019-12-24 | 杜旭昇 | Broadcasting system for transmitting data by using sound wave |
CN111114475A (en) * | 2018-10-30 | 2020-05-08 | 北京轩辕联科技有限公司 | MIC switching device and method for vehicle |
JP7373947B2 (en) * | 2018-12-12 | 2023-11-06 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Acoustic echo cancellation device, acoustic echo cancellation method and acoustic echo cancellation program |
CN109803059A (en) * | 2018-12-17 | 2019-05-24 | 百度在线网络技术(北京)有限公司 | Audio-frequency processing method and device |
KR102602942B1 (en) * | 2019-01-07 | 2023-11-16 | 삼성전자 주식회사 | Electronic device and method for determining audio process algorithm based on location of audio information processing apparatus |
US11190871B2 (en) | 2019-01-29 | 2021-11-30 | Nureva, Inc. | Method, apparatus and computer-readable media to create audio focus regions dissociated from the microphone system for the purpose of optimizing audio processing at precise spatial locations in a 3D space |
CN110035372B (en) * | 2019-04-24 | 2021-01-26 | 广州视源电子科技股份有限公司 | Output control method and device of sound amplification system, sound amplification system and computer equipment |
JP7484105B2 (en) | 2019-08-26 | 2024-05-16 | 大日本印刷株式会社 | Paper container with zipper and its manufacturing method |
CN110677777B (en) * | 2019-09-27 | 2020-12-08 | 深圳市航顺芯片技术研发有限公司 | Audio data processing method, terminal and storage medium |
CN110830749A (en) * | 2019-12-27 | 2020-02-21 | 深圳市创维群欣安防科技股份有限公司 | Video call echo cancellation circuit and method and conference panel |
JP7365642B2 (en) * | 2020-03-18 | 2023-10-20 | パナソニックIpマネジメント株式会社 | Audio processing system, audio processing device, and audio processing method |
CN111741404B (en) * | 2020-07-24 | 2021-01-22 | 支付宝(杭州)信息技术有限公司 | Sound pickup equipment, sound pickup system and sound signal acquisition method |
CN113068103B (en) * | 2021-02-07 | 2022-09-06 | 厦门亿联网络技术股份有限公司 | Audio accessory cascade system |
EP4231663A4 (en) | 2021-03-12 | 2024-05-08 | Samsung Electronics Co., Ltd. | Electronic device for audio input and operation method thereof |
CN114257908A (en) * | 2021-04-06 | 2022-03-29 | 北京安声科技有限公司 | Method and device for reducing noise of earphone during conversation, computer readable storage medium and earphone |
CN114257921A (en) * | 2021-04-06 | 2022-03-29 | 北京安声科技有限公司 | Sound pickup method and device, computer readable storage medium and earphone |
CN113411719B (en) * | 2021-06-17 | 2022-03-04 | 杭州海康威视数字技术股份有限公司 | Microphone cascade system, microphone and terminal |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0262606A (en) * | 1988-08-29 | 1990-03-02 | Fanuc Ltd | Cnc diagnosing system |
JP2000115373A (en) * | 1998-10-05 | 2000-04-21 | Nippon Telegr & Teleph Corp <Ntt> | Telephone system |
JP2006140930A (en) * | 2004-11-15 | 2006-06-01 | Sony Corp | Microphone system and microphone apparatus |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS596394U (en) | 1982-07-06 | 1984-01-17 | 株式会社東芝 | Conference microphone equipment |
JPH0657031B2 (en) | 1986-04-18 | 1994-07-27 | 日本電信電話株式会社 | Conference call equipment |
EP0310456A3 (en) * | 1987-10-01 | 1990-12-05 | Sony Magnescale, Inc. | Improvements in audio mixing |
JP2562703B2 (en) | 1989-12-27 | 1996-12-11 | 株式会社小松製作所 | Data input controller for serial controller |
JPH04291873A (en) | 1991-03-20 | 1992-10-15 | Fujitsu Ltd | Telephone conference system |
US5664021A (en) * | 1993-10-05 | 1997-09-02 | Picturetel Corporation | Microphone system for teleconferencing system |
JPH0983988A (en) * | 1995-09-11 | 1997-03-28 | Nec Eng Ltd | Video conference system |
JPH10276415A (en) | 1997-01-28 | 1998-10-13 | Casio Comput Co Ltd | Video telephone system |
US5966639A (en) * | 1997-04-04 | 1999-10-12 | Etymotic Research, Inc. | System and method for enhancing speech intelligibility utilizing wireless communication |
US6785394B1 (en) * | 2000-06-20 | 2004-08-31 | Gn Resound A/S | Time controlled hearing aid |
JP2002043985A (en) * | 2000-07-25 | 2002-02-08 | Matsushita Electric Ind Co Ltd | Acoustic echo canceller device |
JP3075809U (en) * | 2000-08-23 | 2001-03-06 | 新世代株式会社 | Karaoke microphone |
JP4580545B2 (en) * | 2000-12-20 | 2010-11-17 | 株式会社オーディオテクニカ | Infrared two-way communication system |
US20030120367A1 (en) * | 2001-12-21 | 2003-06-26 | Chang Matthew C.T. | System and method of monitoring audio signals |
JP2004128707A (en) * | 2002-08-02 | 2004-04-22 | Sony Corp | Voice receiver provided with directivity and its method |
JP4003653B2 (en) | 2003-02-07 | 2007-11-07 | 松下電工株式会社 | Intercom system |
JP4104626B2 (en) | 2003-02-07 | 2008-06-18 | 日本電信電話株式会社 | Sound collection method and sound collection apparatus |
EP1482763A3 (en) * | 2003-05-26 | 2008-08-13 | Matsushita Electric Industrial Co., Ltd. | Sound field measurement device |
US7496205B2 (en) * | 2003-12-09 | 2009-02-24 | Phonak Ag | Method for adjusting a hearing device as well as an apparatus to perform the method |
KR100662187B1 (en) | 2004-03-15 | 2006-12-27 | 오므론 가부시키가이샤 | Sensor controller |
JP2006048632A (en) * | 2004-03-15 | 2006-02-16 | Omron Corp | Sensor controller |
JP3972921B2 (en) | 2004-05-11 | 2007-09-05 | ソニー株式会社 | Voice collecting device and echo cancellation processing method |
CN1780495A (en) * | 2004-10-25 | 2006-05-31 | 宝利通公司 | Ceiling microphone assembly |
US7933563B2 (en) | 2004-11-17 | 2011-04-26 | Nec Corporation | Communication system, communication terminal, server, communication method to be used therein and program therefor |
JP4258472B2 (en) * | 2005-01-27 | 2009-04-30 | ヤマハ株式会社 | Loudspeaker system |
US7995768B2 (en) | 2005-01-27 | 2011-08-09 | Yamaha Corporation | Sound reinforcement system |
JP4818014B2 (en) | 2005-07-28 | 2011-11-16 | 株式会社東芝 | Signal processing device |
US8335311B2 (en) | 2005-07-28 | 2012-12-18 | Kabushiki Kaisha Toshiba | Communication apparatus capable of echo cancellation |
US8577048B2 (en) * | 2005-09-02 | 2013-11-05 | Harman International Industries, Incorporated | Self-calibrating loudspeaker system |
JP4701931B2 (en) * | 2005-09-02 | 2011-06-15 | 日本電気株式会社 | Method and apparatus for signal processing and computer program |
JP2007174011A (en) | 2005-12-20 | 2007-07-05 | Yamaha Corp | Sound pickup device |
JP4929740B2 (en) | 2006-01-31 | 2012-05-09 | ヤマハ株式会社 | Audio conferencing equipment |
US20070195979A1 (en) * | 2006-02-17 | 2007-08-23 | Zounds, Inc. | Method for testing using hearing aid |
US8381103B2 (en) | 2006-03-01 | 2013-02-19 | Yamaha Corporation | Electronic device |
JP4844170B2 (en) | 2006-03-01 | 2011-12-28 | ヤマハ株式会社 | Electronic equipment |
CN1822709B (en) * | 2006-03-24 | 2011-11-23 | 北京中星微电子有限公司 | Echo eliminating system for microphone echo |
JP4816221B2 (en) | 2006-04-21 | 2011-11-16 | ヤマハ株式会社 | Sound pickup device and audio conference device |
JP2007334809A (en) * | 2006-06-19 | 2007-12-27 | Mitsubishi Electric Corp | Module type electronic device |
JP4872636B2 (en) * | 2006-12-07 | 2012-02-08 | ヤマハ株式会社 | Audio conference device, audio conference system, and sound emission and collection unit |
JP5012387B2 (en) | 2007-10-05 | 2012-08-29 | ヤマハ株式会社 | Speech processing system |
JP2009188858A (en) * | 2008-02-08 | 2009-08-20 | National Institute Of Information & Communication Technology | Voice output apparatus, voice output method and program |
JP4508249B2 (en) * | 2008-03-04 | 2010-07-21 | ソニー株式会社 | Receiving apparatus and receiving method |
EP2327015B1 (en) * | 2008-09-26 | 2018-09-19 | Sonova AG | Wireless updating of hearing devices |
JP5251731B2 (en) | 2009-05-29 | 2013-07-31 | ヤマハ株式会社 | Mixing console and program |
US20110013786A1 (en) | 2009-06-19 | 2011-01-20 | PreSonus Audio Electronics Inc. | Multichannel mixer having multipurpose controls and meters |
US8204198B2 (en) * | 2009-06-19 | 2012-06-19 | Magor Communications Corporation | Method and apparatus for selecting an audio stream |
JP5452158B2 (en) * | 2009-10-07 | 2014-03-26 | 株式会社日立製作所 | Acoustic monitoring system and sound collection system |
US8792661B2 (en) * | 2010-01-20 | 2014-07-29 | Audiotoniq, Inc. | Hearing aids, computing devices, and methods for hearing aid profile update |
US8615091B2 (en) * | 2010-09-23 | 2013-12-24 | Bose Corporation | System for accomplishing bi-directional audio data and control communications |
EP2442587A1 (en) * | 2010-10-14 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Microphone link system |
US8670853B2 (en) * | 2010-11-19 | 2014-03-11 | Fortemedia, Inc. | Analog-to-digital converter, sound processing device, and analog-to-digital conversion method |
JP2012129800A (en) * | 2010-12-15 | 2012-07-05 | Sony Corp | Information processing apparatus and method, program, and information processing system |
JP2012234150A (en) * | 2011-04-18 | 2012-11-29 | Sony Corp | Sound signal processing device, sound signal processing method and program |
CN102324237B (en) * | 2011-05-30 | 2013-01-02 | 深圳市华新微声学技术有限公司 | Microphone-array speech-beam forming method as well as speech-signal processing device and system |
JP5789130B2 (en) | 2011-05-31 | 2015-10-07 | 株式会社コナミデジタルエンタテインメント | Management device |
JP5701692B2 (en) | 2011-06-06 | 2015-04-15 | 株式会社前川製作所 | Neck bark removal apparatus and method for poultry carcass |
JP2012249609A (en) | 2011-06-06 | 2012-12-20 | Kahuka 21:Kk | Destructive animal intrusion prevention tool |
JP2013102370A (en) * | 2011-11-09 | 2013-05-23 | Sony Corp | Headphone device, terminal device, information transmission method, program, and headphone system |
JP2013110585A (en) | 2011-11-21 | 2013-06-06 | Yamaha Corp | Acoustic apparatus |
WO2013079993A1 (en) * | 2011-11-30 | 2013-06-06 | Nokia Corporation | Signal processing for audio scene rendering |
US20130177188A1 (en) * | 2012-01-06 | 2013-07-11 | Audiotoniq, Inc. | System and method for remote hearing aid adjustment and hearing testing by a hearing health professional |
US9204174B2 (en) * | 2012-06-25 | 2015-12-01 | Sonos, Inc. | Collecting and providing local playback system information |
US20140126740A1 (en) * | 2012-11-05 | 2014-05-08 | Joel Charles | Wireless Earpiece Device and Recording System |
US9391580B2 (en) * | 2012-12-31 | 2016-07-12 | Cellco Paternership | Ambient audio injection |
US9356567B2 (en) * | 2013-03-08 | 2016-05-31 | Invensense, Inc. | Integrated audio amplification circuit with multi-functional external terminals |
-
2013
- 2013-11-12 CN CN201710447232.5A patent/CN107172538B/en active Active
- 2013-11-12 US US14/077,496 patent/US9497542B2/en active Active
- 2013-11-12 JP JP2013233694A patent/JP6090121B2/en active Active
- 2013-11-12 WO PCT/JP2013/080587 patent/WO2014073704A1/en active Application Filing
- 2013-11-12 JP JP2013233693A patent/JP2014116931A/en active Pending
- 2013-11-12 EP EP13853867.3A patent/EP2882202B1/en active Active
- 2013-11-12 EP EP19177298.7A patent/EP3557880B1/en active Active
- 2013-11-12 EP EP21185333.8A patent/EP3917161B1/en active Active
- 2013-11-12 KR KR1020177002958A patent/KR20170017000A/en not_active Application Discontinuation
- 2013-11-12 CN CN201310560237.0A patent/CN103813239B/en active Active
- 2013-11-12 CA CA2832848A patent/CA2832848A1/en not_active Abandoned
- 2013-11-12 JP JP2013233692A patent/JP6090120B2/en active Active
- 2013-11-12 AU AU2013342412A patent/AU2013342412B2/en active Active
- 2013-11-12 KR KR1020157001712A patent/KR101706133B1/en active IP Right Grant
-
2016
- 2016-09-13 US US15/263,860 patent/US10250974B2/en active Active
-
2017
- 2017-02-09 JP JP2017021878A patent/JP6330936B2/en active Active
- 2017-02-09 JP JP2017021872A patent/JP6299895B2/en active Active
-
2019
- 2019-02-05 US US16/267,445 patent/US11190872B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0262606A (en) * | 1988-08-29 | 1990-03-02 | Fanuc Ltd | Cnc diagnosing system |
JP2000115373A (en) * | 1998-10-05 | 2000-04-21 | Nippon Telegr & Teleph Corp <Ntt> | Telephone system |
JP2006140930A (en) * | 2004-11-15 | 2006-06-01 | Sony Corp | Microphone system and microphone apparatus |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017033260A1 (en) * | 2015-08-24 | 2017-03-02 | ヤマハ株式会社 | Sound acquisition device, and sound acquisition method |
JPWO2017033260A1 (en) * | 2015-08-24 | 2018-06-14 | ヤマハ株式会社 | Sound collecting device and sound collecting method |
US10312875B2 (en) | 2015-08-24 | 2019-06-04 | Yamaha Corporation | Sound pickup device and sound pickup method |
JP2020505862A (en) * | 2017-01-27 | 2020-02-20 | シュアー アクイジッション ホールディングス インコーポレイテッドShure Acquisition Holdings,Inc. | Array microphone module and system |
JP7051876B2 (en) | 2017-01-27 | 2022-04-11 | シュアー アクイジッション ホールディングス インコーポレイテッド | Array microphone module and system |
JP7051876B6 (en) | 2017-01-27 | 2023-08-18 | シュアー アクイジッション ホールディングス インコーポレイテッド | Array microphone module and system |
CN112585993A (en) * | 2018-07-20 | 2021-03-30 | 索尼互动娱乐股份有限公司 | Sound signal processing system and sound signal processing device |
CN112585993B (en) * | 2018-07-20 | 2022-11-08 | 索尼互动娱乐股份有限公司 | Sound signal processing system and sound signal processing device |
US11694705B2 (en) | 2018-07-20 | 2023-07-04 | Sony Interactive Entertainment Inc. | Sound signal processing system apparatus for avoiding adverse effects on speech recognition |
Also Published As
Publication number | Publication date |
---|---|
JP6299895B2 (en) | 2018-03-28 |
JP6330936B2 (en) | 2018-05-30 |
CN103813239B (en) | 2017-07-11 |
CN103813239A (en) | 2014-05-21 |
JP6090120B2 (en) | 2017-03-08 |
EP2882202A1 (en) | 2015-06-10 |
KR20170017000A (en) | 2017-02-14 |
CN107172538B (en) | 2020-09-04 |
US11190872B2 (en) | 2021-11-30 |
EP3557880B1 (en) | 2021-09-22 |
AU2013342412B2 (en) | 2015-12-10 |
CA2832848A1 (en) | 2014-05-12 |
JP2014116931A (en) | 2014-06-26 |
JP2014116932A (en) | 2014-06-26 |
US20160381457A1 (en) | 2016-12-29 |
US9497542B2 (en) | 2016-11-15 |
AU2013342412A1 (en) | 2015-01-22 |
KR101706133B1 (en) | 2017-02-13 |
EP2882202B1 (en) | 2019-07-17 |
US20140133666A1 (en) | 2014-05-15 |
EP3917161B1 (en) | 2024-01-31 |
WO2014073704A1 (en) | 2014-05-15 |
US10250974B2 (en) | 2019-04-02 |
JP6090121B2 (en) | 2017-03-08 |
EP3917161A1 (en) | 2021-12-01 |
EP3557880A1 (en) | 2019-10-23 |
JP2017139767A (en) | 2017-08-10 |
EP2882202A4 (en) | 2016-03-16 |
JP2017108441A (en) | 2017-06-15 |
CN107172538A (en) | 2017-09-15 |
US20190174227A1 (en) | 2019-06-06 |
KR20150022013A (en) | 2015-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6299895B2 (en) | Microphone unit, host device, and signal processing system | |
JP5003531B2 (en) | Audio conference system | |
JP4946090B2 (en) | Integrated sound collection and emission device | |
KR101248971B1 (en) | Signal separation system using directionality microphone array and providing method thereof | |
JP4701962B2 (en) | Regression sound removal device | |
KR20120101457A (en) | Audio zoom | |
WO2005125272A1 (en) | Howling suppression device, program, integrated circuit, and howling suppression method | |
CN105165026A (en) | Filter and method for informed spatial filtering using multiple instantaneous direction-of-arrivial estimates | |
JP2010268129A (en) | Telephone device, echo canceller, and echo cancellation program | |
KR20200007793A (en) | Voice output control device, voice output control method, and program | |
CN112509595A (en) | Audio data processing method, system and storage medium | |
JP5167706B2 (en) | Sound emission and collection device | |
JP4655905B2 (en) | Regression sound removal device | |
JP2010221945A (en) | Signal processing method, signal processing device, and signal processing program | |
JP6256342B2 (en) | DTMF signal erasing device, DTMF signal erasing method, and DTMF signal erasing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6090120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |