JP3976077B1 - Telephone device - Google Patents

Telephone device Download PDF

Info

Publication number
JP3976077B1
JP3976077B1 JP2006326211A JP2006326211A JP3976077B1 JP 3976077 B1 JP3976077 B1 JP 3976077B1 JP 2006326211 A JP2006326211 A JP 2006326211A JP 2006326211 A JP2006326211 A JP 2006326211A JP 3976077 B1 JP3976077 B1 JP 3976077B1
Authority
JP
Japan
Prior art keywords
conversion
speaker
sound
frequency band
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006326211A
Other languages
Japanese (ja)
Other versions
JP2008131624A (en
Inventor
修 赤坂
耕作 北田
恵一 ▲吉▼田
進弥 木本
泰史 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2006326211A priority Critical patent/JP3976077B1/en
Application granted granted Critical
Publication of JP3976077B1 publication Critical patent/JP3976077B1/en
Publication of JP2008131624A publication Critical patent/JP2008131624A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供する。
【解決手段】 A/D変換回路311〜31nは、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換したタイミングから周波数帯域G1〜Gnの音波に対する遅延時間Td1〜Tdn経過したときにマイクロホンM2からの音声信号をA/D変換し、減衰回路341〜34nでマイクロホンM1,M2の各出力レベルを所定の周波数帯域毎に一致させ、演算回路38aは、マイクロホンM1,M2の音声信号の差を出力する。
【選択図】図1
PROBLEM TO BE SOLVED: To provide a low-cost communication apparatus capable of canceling a voice component emitted from a speaker from a transmission signal over a wide frequency band and preventing howling.
SOLUTION: A / D conversion circuits 311 to 31n have elapsed delay times Td1 to Tdn for sound waves in frequency bands G1 to Gn from the timing at which the A / D conversion circuit 301 A / D-converts the audio signal from the microphone M1. Sometimes the audio signal from the microphone M2 is A / D converted, and the output levels of the microphones M1 and M2 are made to coincide with each other in a predetermined frequency band by the attenuation circuits 341 to 34n. Output the signal difference.
[Selection] Figure 1

Description

本発明は、通話装置に関するものである。   The present invention relates to a call device.

従来、インターホンシステム等で屋内に設置される通話装置があり、他の場所に設置された通話装置からの音声を出力するスピーカや、他の通話装置へ伝達する音声を入力するマイクロホン等を備えている。   Conventionally, there is a communication device installed indoors with an interphone system or the like, which includes a speaker that outputs sound from a communication device installed in another place, a microphone that inputs sound transmitted to the other communication device, and the like. Yes.

そして、スピーカから発生した音声がマイクロホンに回り込むとハウリングが生じることになるから、様々なハウリング防止対策が採られている。例えば、スピーカと一対のマイクロホンとを備えて、両マイクロホンとスピーカとの距離の差に相当する音波の遅延時間だけスピーカに近いほうのマイクロホンの出力を遅延させる遅延回路と、両マイクロホンとスピーカとの距離の差に相当するレベル調整を行なってスピーカからの音声に対する両マイクロホンの出力レベルを一致させるレベル調整増幅回路と、遅延回路とレベル調整増幅回路とを通った両マイクロホンの出力を両入力とする差動増幅回路とを設け、差動増幅回路の出力を送話信号とする通話装置が提案された。   Since howling occurs when the sound generated from the speaker wraps around the microphone, various measures for preventing howling are taken. For example, a delay circuit that includes a speaker and a pair of microphones, delays the output of a microphone closer to the speaker by a delay time of sound waves corresponding to the difference in distance between the two microphones and the speaker, and both the microphone and the speaker. Adjusting the level corresponding to the difference in distance to match the output level of both microphones with respect to the sound from the speaker, and using both microphone outputs through the delay circuit and the level adjusting amplifier circuit as both inputs There has been proposed a communication device that is provided with a differential amplifier circuit and uses the output of the differential amplifier circuit as a transmission signal.

この通話装置では、両マイクロホンでスピーカからの音声を拾った後、遅延およびレベル調整を行なって両マイクロホンに入力されるスピーカからの音声成分を差動増幅回路で相殺することで、スピーカからの音声成分のみを除去して(キャンセル処理)、ハウリングを防止しようとしている。(例えば、特許文献1,2参照)。
特開平11−41342号公報 特許第3226121号公報
In this communication device, after picking up the sound from the speakers with both microphones, the delay and the level are adjusted, and the sound components from the speakers input to both microphones are canceled by the differential amplifier circuit. Only the components are removed (cancellation process) to prevent howling. (For example, refer to Patent Documents 1 and 2).
Japanese Patent Laid-Open No. 11-41342 Japanese Patent No. 3226121

しかしながら、スピーカから発せられた音声はマイクロホンに伝達されて音声信号に変換されるが、スピーカからマイクロホンへ伝わる音波の伝達関数は周波数特性を有しており、マイクロホンで集音される音声の位相、振幅は、周波数に依存している。したがって、上記特許文献1,2のような従来の構成では、特定の周波数近傍ではスピーカからの音声成分をキャンセルできるが、広い周波数帯域に亘ってスピーカからの音声成分をキャンセルすることはできなかった。また、コスト低減の要望もある。   However, the sound emitted from the speaker is transmitted to the microphone and converted into an audio signal, but the transfer function of the sound wave transmitted from the speaker to the microphone has a frequency characteristic, and the phase of the sound collected by the microphone, The amplitude depends on the frequency. Therefore, in the conventional configurations such as Patent Documents 1 and 2, the sound component from the speaker can be canceled near a specific frequency, but the sound component from the speaker cannot be canceled over a wide frequency band. . There is also a demand for cost reduction.

本発明は、上記事由に鑑みてなされたものであり、その目的は、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and its object is to cancel a voice component emitted from a speaker from a transmission signal over a wide frequency band and to prevent a howling from occurring at a low cost. Is to provide.

請求項1の発明は、伝達された音声情報を出力するスピーカと、音声を集音してアナログの音声信号を出力する第1のマイクロホンと、スピーカからの距離が第1のマイクロホンより遠い位置に配置され、音声を集音してアナログの音声信号を出力する第2のマイクロホンと、前記第1,第2のマイクロホンが出力する各音声信号を信号処理して伝達する信号処理部とを備えて、第1,第2のマイクロホンとスピーカとの各距離の差に相当する音波の伝達時間を遅延時間とし、前記信号処理部は、第1,第2のマイクロホンが出力するアナログの音声信号を各々デジタル信号に変換する第1,第2のA/D変換手段のいずれか一方を複数備えて、一方のA/D変換手段は互いに異なる所定の周波数帯域に各々対応して、他方のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間ずれたタイミングで各々A/D変換を行い、さらにスピーカからの音声に対する第1,第2のマイクロホンの各出力レベルを所定の周波数帯域毎に一致させる処理をA/D変換手段が出力するデジタル信号に施すレベル調整手段と、レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを備えることを特徴とする。   According to the first aspect of the present invention, a speaker that outputs transmitted audio information, a first microphone that collects audio and outputs an analog audio signal, and a distance from the speaker that is farther than the first microphone. And a second microphone that collects sound and outputs an analog sound signal, and a signal processing unit that processes and transmits each sound signal output from the first and second microphones. The sound signal transmission time corresponding to the difference in distance between the first and second microphones and the speaker is set as a delay time, and the signal processing unit outputs analog audio signals output from the first and second microphones, respectively. A plurality of either one of the first and second A / D conversion means for converting into a digital signal is provided, and one A / D conversion means corresponds to a predetermined frequency band different from each other, and the other A / D Conversion means Each A / D conversion is performed at a timing that is shifted by a delay time for each predetermined frequency band from the timing at which the A / D conversion is performed, and each output level of the first and second microphones for the sound from the speaker is set to a predetermined frequency band. A level adjusting unit that applies a process for matching each time to the digital signal output from the A / D converting unit, and an arithmetic unit that outputs a difference between the audio signals of the first and second microphones that have passed through the level adjusting unit. It is characterized by.

この発明によれば、スピーカからの音声に対する第1,第2のマイクロホンの各出力の位相差、振幅差は周波数依存性を有するが、スピーカが発する音声成分を送話信号から周波数帯域毎にキャンセルするので、より確実にハウリングの発生を防止できる。また、低速でA/D変換を行った場合でも、スピーカが発する音声に対する第1、第2のマイクロホンの各音声信号間の遅延時間を精度よく補償することができ、A/D変換手段に高速処理が可能なものは必要ないので、低コスト化を図ることができる。すなわち、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができる。   According to the present invention, the phase difference and amplitude difference of the outputs of the first and second microphones with respect to the sound from the speaker have frequency dependence, but the sound component emitted by the speaker is canceled for each frequency band from the transmission signal. Thus, howling can be prevented more reliably. Further, even when A / D conversion is performed at low speed, the delay time between the audio signals of the first and second microphones with respect to the sound emitted from the speaker can be accurately compensated, and the A / D conversion means can be operated at high speed. Since what can be processed is not necessary, the cost can be reduced. That is, it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmitted signal over a wide frequency band and prevent the occurrence of howling.

請求項2の発明は、請求項1において、前記信号処理部は、前記一方のA/D変換手段の出力毎に所定の周波数帯域を通過させる第1のフィルタ手段と、他方のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする。   According to a second aspect of the present invention, in the first aspect, the signal processing unit includes a first filter unit that passes a predetermined frequency band for each output of the one A / D conversion unit, and the other A / D conversion. And second filter means for separating and passing the output of the means for each predetermined frequency band, and the computing means passes through the first and second filter means and the level adjusting means. A difference between the audio signals of the microphones for each predetermined frequency band is added.

この発明によれば、スピーカからの音声に対する第1,第2のマイクロホンの各出力の位相差、振幅差は周波数依存性を有するが、スピーカが発する音声成分を送話信号から周波数帯域毎にキャンセルするので、より確実にハウリングの発生を防止できる。   According to the present invention, the phase difference and amplitude difference of the outputs of the first and second microphones with respect to the sound from the speaker have frequency dependence, but the sound component emitted by the speaker is canceled for each frequency band from the transmission signal. Thus, howling can be prevented more reliably.

請求項3の発明は、請求項1または2において、前記信号処理部は、前記第1のA/D変換手段を1つ備え、前記第2のA/D変換手段を複数備えて、複数の第2のA/D変換手段は、所定の周波数帯域に各々対応して、第1のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間後のタイミングで各々A/D変換を行い、さらに第1のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第1のフィルタ手段と、第2のA/D変換手段の出力毎に所定の周波数帯域を通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする。   According to a third aspect of the present invention, in the first or second aspect, the signal processing unit includes one first A / D conversion unit, a plurality of the second A / D conversion units, and a plurality of the second A / D conversion units. Each of the second A / D conversion means corresponds to each predetermined frequency band, and each of the second A / D conversion means has a timing after a delay time for each predetermined frequency band from the timing when the first A / D conversion means performs A / D conversion. A first filter means that performs A / D conversion and further separates and passes the output of the first A / D conversion means for each predetermined frequency band, and predetermined for each output of the second A / D conversion means And a second filter means for passing the frequency band, wherein the computing means has a predetermined frequency of the audio signals of the first and second microphones that have passed through the first and second filter means and the level adjusting means. The difference between the bands is added.

この発明によれば、スピーカからの音声に対する第1,第2のマイクロホンの各出力の位相差、振幅差は周波数依存性を有するが、スピーカが発する音声成分を送話信号から周波数帯域毎にキャンセルするので、より確実にハウリングの発生を防止できる。   According to the present invention, the phase difference and amplitude difference of the outputs of the first and second microphones with respect to the sound from the speaker have frequency dependence, but the sound component emitted by the speaker is canceled for each frequency band from the transmission signal. Thus, howling can be prevented more reliably.

請求項4の発明は、請求項1または2において、前記信号処理部は、前記第1のA/D変換手段を複数備え、前記第2のA/D変換手段を1つ備えて、複数の第1のA/D変換手段は、所定の周波数帯域に各々対応して、第2のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間前のタイミングで各々A/D変換を行い、さらに第1のA/D変換手段の出力毎に所定の周波数帯域を通過させる第1のフィルタ手段と、第2のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする。   According to a fourth aspect of the present invention, in the first or second aspect, the signal processing unit includes a plurality of the first A / D conversion units, a single second A / D conversion unit, and a plurality of the first A / D conversion units. Each of the first A / D conversion means corresponds to a predetermined frequency band, and each of the first A / D conversion means has a timing before a delay time for each predetermined frequency band from a timing at which the second A / D conversion means performs A / D conversion. A first filter means for performing A / D conversion and passing a predetermined frequency band for each output of the first A / D conversion means; and an output of the second A / D conversion means for each predetermined frequency band And a second filter means that passes the first and second filter means and the level adjusting means, and the arithmetic means has a predetermined frequency of the audio signals of the first and second microphones that have passed through the first and second filter means. The difference between the bands is added.

この発明によれば、スピーカからの音声に対する第1,第2のマイクロホンの各出力の位相差、振幅差は周波数依存性を有するが、スピーカが発する音声成分を送話信号から周波数帯域毎にキャンセルするので、より確実にハウリングの発生を防止できる。   According to the present invention, the phase difference and amplitude difference of the outputs of the first and second microphones with respect to the sound from the speaker have frequency dependence, but the sound component emitted by the speaker is canceled for each frequency band from the transmission signal. Thus, howling can be prevented more reliably.

以上説明したように、本発明では、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができるという効果がある。   As described above, according to the present invention, there is an effect that it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmission signal over a wide frequency band and prevent the occurrence of howling. is there.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
本実施形態の通話装置Aは図2〜図4に示され、後面に開口を形成したボディA10と、ボディA10の開口に覆設したカバーA11とでハウジングA1を構成し、ハウジングA1内に、スピーカSP、マイクロホン基板MB1、通話スイッチSW1、音声処理部10を備える。
(Embodiment 1)
The communication device A of the present embodiment is shown in FIGS. 2 to 4, and a housing A1 is configured by a body A10 having an opening formed on the rear surface and a cover A11 covering the opening of the body A10. A speaker SP, a microphone board MB1, a call switch SW1, and a voice processing unit 10 are provided.

音声処理部10は、図4に示すように、通信部10a、エコーキャンセル部10b,10c、増幅部10d、信号処理部10eを備えたICで構成され、ハウジングA1内に配置される。他の部屋等に設置されている通話装置Aから情報線Lsを介して送信された音声信号は、通信部10aで受信され、エコーキャンセル部10bを介して増幅部10dで増幅された後、スピーカSPから出力される。また、通話スイッチSW1を操作することで通話可能状態となり、マイクロホン基板MB1上のマイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)から入力された各音声信号は信号処理部10eで後述する信号処理を施された後、エコーキャンセル部10cを通過し、通信部10aから情報線Lsを介して他の部屋等に設置されている通話装置Aへ送信される。すなわち、部屋間で双方向の通話が可能なインターホンとして機能するものである。なお、通話装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。   As shown in FIG. 4, the audio processing unit 10 includes an IC including a communication unit 10a, echo cancellation units 10b and 10c, an amplification unit 10d, and a signal processing unit 10e, and is disposed in the housing A1. A voice signal transmitted from the communication device A installed in another room or the like via the information line Ls is received by the communication unit 10a, amplified by the amplification unit 10d via the echo cancellation unit 10b, and then the speaker. Output from SP. Further, by operating the call switch SW1, a call can be made and each audio signal input from the microphone M1 (first microphone) and the microphone M2 (second microphone) on the microphone board MB1 is received by the signal processing unit 10e. After being subjected to signal processing to be described later, the signal passes through the echo cancel unit 10c, and is transmitted from the communication unit 10a to the communication device A installed in another room or the like via the information line Ls. That is, it functions as an intercom that allows two-way calls between rooms. Note that the power of the communication device A may be supplied from an outlet provided in the vicinity of the installation location or may be supplied via the information line Ls.

スピーカSPは、図2に示すように、冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成されて一端を開口した円筒状のヨーク20を具備し、ヨーク20の開口端から外側に向かって円形の支持体21が延設されている。   As shown in FIG. 2, the speaker SP is a cylindrical yoke 20 formed of an iron-based material having a thickness of about 0.8 mm such as cold rolled steel plate (SPCC, SPCEN), electromagnetic soft iron (SUY), etc., and having one end opened. The circular support body 21 is extended from the opening end of the yoke 20 toward the outside.

ヨーク20の筒内にはネオジウムで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の縁端面に固定されている。   A cylindrical permanent magnet 22 (for example, residual magnetic flux density of 1.39 T to 1.43 T) formed of neodymium is disposed in the cylinder of the yoke 20, and the outer peripheral edge of the dome-shaped diaphragm 23 is a support. 21 is fixed to the edge surface.

振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、ボイスコイル25がヨーク20の開口端に位置するように設けられており、ヨーク20の開口端近傍を前後方向に自在に移動する。   The diaphragm 23 is formed of a thermoplastic plastic (for example, a thickness of 12 μm to 50 μm) such as PET (PolyEthyleneTerephthalate) or PEI (Polyetherimide). A cylindrical bobbin 24 is fixed to the rear surface of the diaphragm 23, and is formed by winding a polyurethane copper wire (for example, φ0.05 mm) around a paper tube of kraft paper at the rear end of the bobbin 24. A voice coil 25 is provided. The bobbin 24 and the voice coil 25 are provided so that the voice coil 25 is positioned at the opening end of the yoke 20, and freely move in the front-rear direction in the vicinity of the opening end of the yoke 20.

ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。   When an audio signal is input to the polyurethane copper wire of the voice coil 25, an electromagnetic force is generated in the voice coil 25 due to the current of the audio signal and the magnetic field of the permanent magnet 22, so that the bobbin 24 moves back and forth with the diaphragm 23. Visible in the direction. At this time, a sound corresponding to the audio signal is emitted from the diaphragm 23. That is, an electrodynamic speaker SP is configured.

そして、スピーカSPの振動板23が対向するハウジングA1の前面内側には、リブ11が形成されており、スピーカSPの円形の支持体21の外周端部から前面側に突出した凸部21aの端面がリブ11に当接し、振動板23がハウジングA1の前面に内側から対向する状態でスピーカSPが固定される。   And the rib 11 is formed in the front inner side of housing A1 which the diaphragm 23 of speaker SP opposes, and the end surface of the convex part 21a protruded to the front side from the outer peripheral end part of the circular support body 21 of speaker SP. Comes into contact with the rib 11, and the speaker SP is fixed in a state where the diaphragm 23 faces the front surface of the housing A1 from the inside.

ハウジングA1内にスピーカSPが固定されると、ハウジングA1の前面内側とスピーカSPの表面側(振動板23側)とで囲まれた空間である前気室Bf、ハウジングA1の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。前気室Bfは、ハウジングA1の前面に複数設けた音孔12を介して外部に連通している。後気室Brは、スピーカSPの支持体21の端部とハウジングA1の内面のリブ11とが密着することで、前気室Bfとは絶縁した(連通していない)空間となり、さらにカバーA11がボディA10の後面開口に密着することで、外部とも絶縁した密閉された空間となっている。   When the speaker SP is fixed in the housing A1, the front air chamber Bf which is a space surrounded by the front inner side of the housing A1 and the front surface side (the diaphragm 23 side) of the speaker SP, the rear inner side and the inner side surface of the housing A1. And a rear air chamber Br which is a space surrounded by the back surface side (yoke 20 side) of the speaker SP. The front air chamber Bf communicates with the outside through a plurality of sound holes 12 provided on the front surface of the housing A1. The rear air chamber Br becomes a space that is insulated (not communicated) with the front air chamber Bf by closely contacting the end portion of the support 21 of the speaker SP and the rib 11 on the inner surface of the housing A1, and further covers the cover A11. Is in close contact with the rear opening of the body A10 to form a sealed space that is insulated from the outside.

次に、マイクロホン基板MB1は、図5に示すように、マイクロホンのベアチップBC1とICKa1との対、マイクロホンのベアチップBC2とICKa2との対をモジュール基板2の一面2aに各々実装し、ベアチップBC1、ICKa1、モジュール基板2上の配線パターン(図示無し)の各間、およびベアチップBC2、ICKa2、モジュール基板2上の配線パターン(図示無し)の各間をワイヤWで各々接続(ワイヤボンティング)した後、ベアチップBC1とICKa1の対を覆うようにシールドケースSC1を実装し、ベアチップBC2とICKa2の対を覆うように、シールドケースSC2を実装することで、ベアチップBC1、ICKa1、シールドケースSC1で構成されるマイクロホンM1、ベアチップBC2、ICKa2、シールドケースSC2で構成されるマイクロホンM2を備えている。   Next, as shown in FIG. 5, the microphone substrate MB1 has a pair of microphone bare chips BC1 and ICKa1 and a pair of microphone bare chips BC2 and ICKa2 mounted on one surface 2a of the module substrate 2, respectively, and bare chips BC1 and ICKa1. After connecting the wiring patterns (not shown) on the module substrate 2 and between the bare chips BC2, ICKa2 and the wiring patterns (not shown) on the module substrate 2 with wires W (wire bonding), A shield case SC1 is mounted so as to cover the pair of bare chips BC1 and ICKa1, and a shield case SC2 is mounted so as to cover the pair of bare chips BC2 and ICKa2, so that the microphone configured by the bare chips BC1, ICKa1, and shield case SC1 M1, bare chip BC2, I Ka2, and a composed microphone M2 with a shield case SC2.

ベアチップBC(ベアチップBC1またはBC2)は、図6に示すように、シリコン基板1bに穿設した孔1cを塞ぐようにシリコン基板1bの一面側にSi薄膜1dが形成され、このSi薄膜1dとの間にエアーギャップ1eを介して電極1fが形成され、さらに音声信号を出力するパッド1gが設けられており、コンデンサ型のシリコンマイクロホンを構成している。そして、外部からの音響信号がSi薄膜1dを振動させることで、Si薄膜1dと電極1fとの間の静電容量が変化して電荷量が変化し、この電荷量の変化に伴ってパッド1g,1gから音響信号に応じた電流が流れる。このベアチップBCは、シリコン基板1bをモジュール基板2上にダイボンディングし、特にベアチップBC2のSi薄膜1dは、モジュール基板2に穿設した音孔F2に対向している。   As shown in FIG. 6, in the bare chip BC (bare chip BC1 or BC2), an Si thin film 1d is formed on one surface side of the silicon substrate 1b so as to close the hole 1c formed in the silicon substrate 1b. An electrode 1f is formed between them via an air gap 1e, and a pad 1g for outputting an audio signal is further provided to constitute a capacitor type silicon microphone. Then, an external acoustic signal vibrates the Si thin film 1d, whereby the capacitance between the Si thin film 1d and the electrode 1f changes to change the amount of charge, and the pad 1g changes with this change in the amount of charge. , 1g, a current corresponding to the acoustic signal flows. In this bare chip BC, the silicon substrate 1b is die-bonded on the module substrate 2. In particular, the Si thin film 1d of the bare chip BC2 faces the sound hole F2 formed in the module substrate 2.

そして、マイクロホンM1は、音孔F1を穿設したシールドケースSC1の底面側を集音面とし、マイクロホンM2は、音孔F2を穿設したモジュール基板2への実装面側を集音面として、互いに逆方向となるモジュール基板2の両面方向に集音面を有するものになる。このように構成されたマイクロホン基板MB1は、モジュール基板2の一面2aにマイクロホンM1,M2の両方を実装しているので、マイクロホン基板MB1の厚さを薄くできる。   The microphone M1 uses the bottom surface side of the shield case SC1 with the sound hole F1 as a sound collecting surface, and the microphone M2 uses the mounting surface side with respect to the module substrate 2 with the sound hole F2 as a sound collecting surface. The module substrate 2 has sound collecting surfaces in both directions opposite to each other. Since the microphone substrate MB1 configured in this manner has both the microphones M1 and M2 mounted on the one surface 2a of the module substrate 2, the thickness of the microphone substrate MB1 can be reduced.

図7(a)は、マイクロホン基板MB1を、モジュール基板2の一面2a側から見た平面図であり、モジュール基板2は、マイクロホンM1を配置する矩形部2fと、マイクロホンM2を配置する矩形部2gと、矩形部2f,2g間を連結する連結部2hとで構成され、矩形部2gは矩形部2fより大きく形成される。そして、矩形部2gの縁部に沿って、負電源パッドP1,正電源パッドP2,出力1パッドP3,出力2パッドP4が設けられている。   FIG. 7A is a plan view of the microphone board MB1 as viewed from the one surface 2a side of the module board 2. The module board 2 has a rectangular part 2f in which the microphone M1 is arranged and a rectangular part 2g in which the microphone M2 is arranged. And a connecting portion 2h that connects the rectangular portions 2f and 2g, and the rectangular portion 2g is formed larger than the rectangular portion 2f. A negative power supply pad P1, a positive power supply pad P2, an output 1 pad P3, and an output 2 pad P4 are provided along the edge of the rectangular portion 2g.

そして、図7(b)に示すように、負電源パッドP1には外部から供給される電源電圧の負側、正電源パッドP2には電源電圧の正側が接続されて、モジュール基板2上の配線パターンを介してマイクロホンM1,M2に電源を供給している。また、出力1パッドP3からは、マイクロホンM1が集音した音声信号がモジュール基板2上の配線パターンを介して出力され、出力2パッドP4からは、マイクロホンM2が集音した音声信号がモジュール基板2上の配線パターンを介して出力される。なお、出力パッドP3,P4から出力される音声信号のグランドは、負電源パッドP1で兼用される。   As shown in FIG. 7B, the negative power supply pad P1 is connected to the negative side of the power supply voltage supplied from the outside, and the positive power supply pad P2 is connected to the positive side of the power supply voltage. Power is supplied to the microphones M1 and M2 through the pattern. Further, an audio signal collected by the microphone M1 is output from the output 1 pad P3 via a wiring pattern on the module substrate 2, and an audio signal collected by the microphone M2 is output from the output 2 pad P4. It is output via the upper wiring pattern. The ground of the audio signal output from the output pads P3 and P4 is shared by the negative power supply pad P1.

このように、マイクロホンM1,M2の電源を共通の負電源パッドP1、正電源パッドP2から供給し、さらにマイクロホンM1,M2の各出力のグランドを負電源パッドP1で兼用することで、パッドの数を減らすことができ、構成が簡単になる。   Thus, the power of the microphones M1 and M2 is supplied from the common negative power supply pad P1 and the positive power supply pad P2, and the ground of each output of the microphones M1 and M2 is shared by the negative power supply pad P1, so that the number of pads The configuration can be simplified.

次に、マイクロホン基板MB1の動作について説明する。   Next, the operation of the microphone substrate MB1 will be described.

まず、集音した音響信号に応じてベアチップBC1,BC2から流れる各電流は、ICKa1,Ka2によってインピーダンス変換されるとともに電圧信号に変換され、音声信号として出力1パッドP3、出力2パッドP4から各々出力される。   First, each current flowing from the bare chips BC1 and BC2 according to the collected acoustic signal is impedance-converted by ICKa1 and Ka2 and converted into a voltage signal, and output from the output 1 pad P3 and the output 2 pad P4 as audio signals, respectively. Is done.

ICKa(ICKa1またはKa2)は、図8の回路構成を備えており、電源パッドP1,P2から供給される電源電圧+V(例えば5V)を定電圧Vr(例えば12V)に変換するチップICからなる定電圧回路Kbを備えており、抵抗R11とベアチップBCとの直列回路に定電圧Vrが印加され、抵抗R11とベアチップBCとの接続中点はコンデンサC11を介してジャンクション型のJ−FET素子S11のゲート端子に接続される。J−FET素子S11のドレイン端子は動作電源+Vに接続され、ソース端子は抵抗R12を介して電源電圧の負側に接続される。ここで、J−FET素子S11は電気インピーダンスの変換用であり、このJ−FET素子S11のソース端子の電圧が音声信号として出力される。なお、ICKaのインピーダンスの変換回路は、上記構成に限定されるものではなく、例えばオペアンプによるソースフォロワ回路の機能を有する回路であってもよく、または必要に応じてICKa内に音声信号の増幅回路を設けてもよい。   The ICKa (ICKa1 or Ka2) has the circuit configuration of FIG. 8, and is a constant IC composed of a chip IC that converts the power supply voltage + V (for example, 5V) supplied from the power supply pads P1 and P2 into a constant voltage Vr (for example, 12V). A voltage circuit Kb is provided, a constant voltage Vr is applied to the series circuit of the resistor R11 and the bare chip BC, and a connection midpoint between the resistor R11 and the bare chip BC is connected to the junction type J-FET element S11 via the capacitor C11. Connected to the gate terminal. The drain terminal of the J-FET element S11 is connected to the operating power supply + V, and the source terminal is connected to the negative side of the power supply voltage via the resistor R12. Here, the J-FET element S11 is for electrical impedance conversion, and the voltage at the source terminal of the J-FET element S11 is output as an audio signal. Note that the ICKa impedance conversion circuit is not limited to the above-described configuration, and may be, for example, a circuit having a function of a source follower circuit using an operational amplifier, or an audio signal amplification circuit in the ICKa if necessary. May be provided.

そして、マイクロホン基板MB1は、上記のようにモジュール基板2上の配線パターンを介して信号伝達、給電を行うことで、信号線、給電線を効率よく構成できるとともに、ハウジングA1の外面に取付可能となる。本実施形態では、モジュール基板2の一面2aをハウジングA1の前面外側に沿って配置し、マイクロホンM1はハウジングA1前面の開口13を挿通して集音面を前気室Bfに向けており、シールドケースSC1の底面に穿設したマイクロホンM1の音孔F1はスピーカSPの振動板23に対向し、音孔F1を介してスピーカSPが発する音声を確実に集音することができる。また、マイクロホンM2は、ハウジングA1の前面に設けた凹部14に嵌合し、モジュール基板2に穿設したマイクロホンM2の音孔F2はスピーカSPの出力方向に向かってハウジングA1の外部(前方)に面しているので、音孔F2を介して伝達される、通話装置Aの前方に位置する話者からの音声を確実に集音することができる。なお、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。   The microphone board MB1 can efficiently configure the signal lines and the power supply lines by performing signal transmission and power supply via the wiring pattern on the module board 2 as described above, and can be attached to the outer surface of the housing A1. Become. In this embodiment, one surface 2a of the module substrate 2 is arranged along the outer front surface of the housing A1, and the microphone M1 is inserted through the opening 13 on the front surface of the housing A1 so that the sound collection surface faces the front air chamber Bf, and the shield The sound hole F1 of the microphone M1 formed in the bottom surface of the case SC1 faces the diaphragm 23 of the speaker SP, and the sound emitted from the speaker SP can be reliably collected through the sound hole F1. The microphone M2 is fitted into a recess 14 provided in the front surface of the housing A1, and the sound hole F2 of the microphone M2 formed in the module substrate 2 is located outside (frontward) the housing A1 in the output direction of the speaker SP. Therefore, it is possible to reliably collect the sound transmitted from the speaker located in front of the communication device A and transmitted through the sound hole F2. If the distances from the center of the speaker SP to the centers of the microphones M1 and M2 are X1 and X2, respectively, X1 <X2.

また、スピーカSPの裏面が面する後気室Brは、ハウジングA1内で密閉されるので、スピーカSPの裏面から放射される音声は後気室Brから漏れ難くなり、スピーカSPとマイクロホンM2との音響結合を低減させている。さらにスピーカSPの裏面(振動板23の裏面)から放射される音は、スピーカSPの表面(振動板23の表面)から放射される音と位相が反転しており、このスピーカSPの裏面から放射される音が前方に回り込むと、スピーカSPの表面から放射される音と互いに打ち消しあって、スピーカSPの放射音圧が低下し、前方にいる話者にはスピーカSPが発する音声が聞こえ難いものとなるが、上記のようにスピーカSPの裏面から放射される音はハウジングA1の外部に漏れ難いので、上記回り込みによるスピーカSPの放射音圧の低下を防いでいる。   Further, the rear air chamber Br facing the back surface of the speaker SP is sealed in the housing A1, so that sound radiated from the back surface of the speaker SP is difficult to leak from the rear air chamber Br, and the speaker SP and the microphone M2 are not connected. Acoustic coupling is reduced. Furthermore, the sound radiated from the back surface of the speaker SP (the back surface of the diaphragm 23) has a phase reversed from that of the sound radiated from the surface of the speaker SP (the surface of the diaphragm 23). When the generated sound circulates forward, the sound radiated from the surface of the speaker SP cancels each other, the radiated sound pressure of the speaker SP decreases, and the speaker in front cannot hear the sound emitted by the speaker SP. However, since the sound radiated from the back surface of the speaker SP is difficult to leak to the outside of the housing A1 as described above, a decrease in the radiated sound pressure of the speaker SP due to the wraparound is prevented.

また、マイクロホンM2を収納した凹部14は後気室Brと連通していない分離された空間であるので、マイクロホンM2はスピーカSPの発する音声をさらに集音し難くなり、スピーカSPとマイクロホンM2との音響結合をさらに低減させている。すなわち、上記構成によって、スピーカSPが発する音声と話者の発する音声とをマイクロホンM1,M2で分離して集音しているのである。   Further, since the concave portion 14 in which the microphone M2 is accommodated is a separated space that does not communicate with the rear air chamber Br, the microphone M2 is more difficult to collect the sound emitted by the speaker SP, and the speaker SP and the microphone M2 are separated. The acoustic coupling is further reduced. That is, with the above configuration, the sound emitted from the speaker SP and the sound emitted from the speaker are separated and collected by the microphones M1 and M2.

また、マイクロホン基板MB1をハウジングA1内に配置すると前気室Bfと後気室Brとの間の空間的な絶縁を維持することが困難であるが、本実施形態のようにマイクロホン基板MB1をハウジングA1の外面に取り付けることで、前気室Bfと後気室Brとの間の空間的な絶縁を維持することができる。   Further, when the microphone substrate MB1 is disposed in the housing A1, it is difficult to maintain the spatial insulation between the front air chamber Bf and the rear air chamber Br, but the microphone substrate MB1 is disposed in the housing as in the present embodiment. By attaching to the outer surface of A1, the spatial insulation between the front air chamber Bf and the rear air chamber Br can be maintained.

そして、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。   And in this embodiment, in order to prevent the howling which generate | occur | produces when the microphones M1 and M2 pick up the audio | voice output of the speaker SP, it has the following structures.

まず、音声処理部10に収納されている信号処理部10eは、図1に示すように、1つのA/D変換回路301と、複数のA/D変換回路311〜31nと、バンドパスフィルタ321〜32nと、バンドパスフィルタ331〜33nと、減衰回路341〜34nと、演算回路35aと、タイミング制御部36とで構成される。A/D変換回路301、311〜31nの各動作は、タイミング制御部36によって制御されており、以下、各回路の動作について説明する。図9〜図12は、スピーカSPが発する音声をマイクロホンM1,M2が集音したときの信号処理部10eの各部における信号波形を示す。   First, as shown in FIG. 1, the signal processing unit 10 e housed in the audio processing unit 10 includes one A / D conversion circuit 301, a plurality of A / D conversion circuits 311 to 31 n, and a bandpass filter 321. To 32n, bandpass filters 331 to 33n, attenuation circuits 341 to 34n, an arithmetic circuit 35a, and a timing control unit 36. Each operation of the A / D conversion circuits 301 and 311 to 31n is controlled by the timing control unit 36, and the operation of each circuit will be described below. 9 to 12 show signal waveforms in each part of the signal processing unit 10e when the microphones M1 and M2 collect the sound emitted from the speaker SP.

まず、マイクロホンM1は、集音面がスピーカSPに向かって実装されており、通話装置Aの前方に位置する話者H(図1参照)が発する音声(送話音声)よりも、スピーカSPが発する音声を感度よく集音する。一方、マイクロホンM2は、集音面が前方に向かって配置されており、スピーカSPが発する音声よりも、通話装置Aの前方に位置する話者Hが発する音声を感度よく集音する。   First, the microphone M1 has a sound collection surface mounted toward the speaker SP, and the speaker SP is more effective than the sound (transmitted sound) emitted by the speaker H (see FIG. 1) located in front of the call device A. The sound that is emitted is collected with high sensitivity. On the other hand, the microphone M2 has a sound collection surface arranged forward, and collects sound emitted by the speaker H located in front of the communication device A with higher sensitivity than the sound emitted by the speaker SP.

すなわち、マイクロホンM1が出力する音声信号Y11は、スピーカSPが発する音声に対しては感度が高く振幅が大きくなるが、話者Hが発する音声に対しては感度が低く振幅が小さくなる。また、マイクロホンM2が出力する音声信号Y21は、話者Hが発する音声に対しては感度が高く振幅が大きくなるが、スピーカSPが発する音声に対しては感度が低く振幅が小さくなる。   That is, the sound signal Y11 output from the microphone M1 has high sensitivity and large amplitude with respect to the sound emitted from the speaker SP, but has low sensitivity and small amplitude with respect to the sound emitted from the speaker H. The sound signal Y21 output from the microphone M2 has high sensitivity and large amplitude for the sound emitted by the speaker H, but has low sensitivity and small amplitude for the sound emitted from the speaker SP.

さらに、送話時には、話者Hが発する音声とスピーカSPが発する音声との両方がマイクロホンM1,M2にて集音されるが、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離X1,X2はX1<X2であるので、スピーカSPからの音声に対しては、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に位相差が生じ、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Vs](Vsは音速)だけ、マイクロホンM1の音声信号Y11に比べてマイクロホンM2の音声信号Y21の位相が遅れている。この遅延時間Tdは、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。   Furthermore, at the time of transmission, both the sound emitted by the speaker H and the sound emitted by the speaker SP are collected by the microphones M1 and M2, but the distance X1 from the center of the speaker SP to the center of each of the microphones M1 and M2 , X2 satisfy X1 <X2, so that a phase difference occurs between the sound signal Y11 of the microphone M1 and the sound signal Y21 of the microphone M2 with respect to the sound from the speaker SP, and both the microphones M1, M2 and the speaker SP. The sound signal Y21 of the microphone M2 is compared with the sound signal Y11 of the microphone M1 by the sound wave delay time [Td = (X2-X1) / Vs] (Vs is the speed of sound) corresponding to the difference (X2-X1) in distance from the sound wave. Is out of phase. The delay time Td is constant with respect to the frequency without depending on the frequency of the sound emitted from the speaker SP under ideal conditions (for example, a point sound source, a sealed housing structure, and no variation in CR of the circuit configuration). Although there is actually no ideal condition, it depends on the frequency of the sound emitted by the speaker SP.

また、スピーカSPからの音声に対する音声信号Y11,Y21の振幅も上記同様に、理想的な条件下では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。   Similarly, the amplitudes of the audio signals Y11 and Y21 with respect to the sound from the speaker SP are constant with respect to the frequency under the ideal conditions without depending on the frequency of the sound emitted from the speaker SP. Since it is not an ideal condition, it depends on the frequency of the sound emitted by the speaker SP.

一方、マイクロホンM1,M2と話者Hとの各距離は等しいとみなせるので、話者Hが発する音声に対しては、両マイクロホンM1,M2の各音声信号Y11,Y21は、略同一位相となる。   On the other hand, since the distances between the microphones M1 and M2 and the speaker H can be considered to be equal, the voice signals Y11 and Y21 of the microphones M1 and M2 have substantially the same phase with respect to the voice emitted by the speaker H. .

而して、本実施形態では、マイクロホンM1,M2からの音声信号を周波数帯域毎に分割して、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に生じる位相差および振幅差を周波数帯域毎に最適に調整している。なお、図9(a)〜(h)は、周波数帯域の分割数n=2とした場合の動作について示している。   Thus, in the present embodiment, the audio signal from the microphones M1 and M2 is divided for each frequency band, and the phase difference and amplitude difference generated between the audio signal Y11 of the microphone M1 and the audio signal Y21 of the microphone M2 are determined. It is optimally adjusted for each frequency band. 9A to 9H show the operation when the frequency band division number n = 2.

まず、A/D変換回路301は、マイクロホンM1のアナログの音声信号Y11をデジタル信号に変換し、A/D変換回路311〜31nは、マイクロホンM2のアナログの音声信号Y21をデジタル信号に変換する。A/D変換回路301のA/D変換動作は、タイミング制御部36が出力する制御信号Si11の立ち上がりに同期して行われ、A/D変換回路311〜31nのA/D変換動作は、タイミング制御部36が出力する制御信号Si21〜Si2nの立ち上がりに同期して行われており、本実施形態の制御信号Si11、Si21〜Si2nの周波数は8〜16KHzに設定されて、各A/D変換回路における変換周期T1=62.5〜125μsecとしている(図9(c)〜(e))。   First, the A / D conversion circuit 301 converts the analog audio signal Y11 of the microphone M1 into a digital signal, and the A / D conversion circuits 311 to 31n convert the analog audio signal Y21 of the microphone M2 into a digital signal. The A / D conversion operation of the A / D conversion circuit 301 is performed in synchronization with the rising edge of the control signal Si11 output from the timing control unit 36, and the A / D conversion operations of the A / D conversion circuits 311 to 31n are the timing. It is performed in synchronization with the rise of the control signals Si21 to Si2n output from the control unit 36, and the frequency of the control signals Si11 and Si21 to Si2n in this embodiment is set to 8 to 16 KHz, and each A / D conversion circuit The conversion cycle T1 is 62.5 to 125 μsec (FIGS. 9C to 9E).

また、スピーカSPが発する音声の周波数帯域をG1〜Gnにn分割した場合に、スピーカSPが発する音声に対して、最も低い周波数帯域G1ではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td11だけ遅れ、次に低い周波数帯域G2ではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td12だけ遅れ、………、n番目に低い周波数帯域GnではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td1nだけ遅れる。なお、Td11>Td12>………>Td1nとなる。   Further, when the frequency band of the sound emitted from the speaker SP is divided into n parts G1 to Gn, the phase of the sound signal Y21 of the microphone M2 is the sound signal of the microphone M1 in the lowest frequency band G1 with respect to the sound emitted from the speaker SP. Delayed by a delay time Td11 compared to Y11, and in the next lower frequency band G2, the phase of the audio signal Y21 of the microphone M2 is delayed by a delay time Td12 compared to the audio signal Y11 of the microphone M1,..., Nth lowest frequency In the band Gn, the phase of the audio signal Y21 of the microphone M2 is delayed by a delay time Td1n compared to the audio signal Y11 of the microphone M1. Note that Td11> Td12>...> Td1n.

したがって、制御信号Si21は制御信号Si11に対して遅延時間Td11だけ遅く発生させ、制御信号Si22は制御信号Si11に対して遅延時間Td12だけ遅く発生させ、………、制御信号Si2nは制御信号Si11に対して遅延時間Td1nだけ遅く発生させるようにタイミング制御部36の動作を予め設定しておく(図9(a)(b)参照)。すなわち、A/D変換回路311は、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換するタイミングから遅延時間Td11後のタイミングでマイクロホンM2からの音声信号をA/D変換し、A/D変換回路312は、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換するタイミングから遅延時間Td12後のタイミングでマイクロホンM2からの音声信号をA/D変換し、………、A/D変換回路31nは、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換回路するタイミングから遅延時間Td1n後のタイミングでマイクロホンM2からの音声信号をA/D変換することで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。   Therefore, the control signal Si21 is generated later than the control signal Si11 by the delay time Td11, the control signal Si22 is generated later than the control signal Si11 by the delay time Td12,..., And the control signal Si2n is generated in the control signal Si11. On the other hand, the operation of the timing control unit 36 is set in advance so as to be delayed by the delay time Td1n (see FIGS. 9A and 9B). That is, the A / D conversion circuit 311 performs A / D conversion on the audio signal from the microphone M2 at a timing after the delay time Td11 from the timing at which the A / D conversion circuit 301 performs A / D conversion on the audio signal from the microphone M1. The A / D conversion circuit 312 performs A / D conversion on the audio signal from the microphone M2 at a timing after the delay time Td12 from the timing at which the A / D conversion circuit 301 performs A / D conversion on the audio signal from the microphone M1. The A / D conversion circuit 31n receives the audio signal from the microphone M2 at the timing after the delay time Td1n from the timing at which the A / D conversion circuit 301 converts the audio signal from the microphone M1 into the A / D conversion circuit. By performing D conversion, the phases of the audio signal of the microphone M1 and the audio signal of the microphone M2 are converted into frequency bands G1 to Gn. It is made to coincide to.

また、A/D変換回路301、A/D変換回路311〜31nは、ΣΔ方式でA/D変換を行っており、ΣΔ方式の特徴であるノイズのみの周波数伝達特性を変化させてノイズ成分を信号成分より高い周波数領域に分布させるノイズシェーピングによって高いS/N比でのA/D変換が可能となり、さらには殆どの処理がデジタルで行われることによってIC化が容易となる。なお、A/D変換の分解能は、16bit,14bit,12bitのいずれかを用いる。   Further, the A / D conversion circuit 301 and the A / D conversion circuits 311 to 31n perform A / D conversion by the ΣΔ method, and change the frequency transfer characteristic of only noise, which is a feature of the ΣΔ method, to reduce the noise component. Noise shaping distributed in a higher frequency region than the signal component enables A / D conversion with a high S / N ratio, and further, most of the processing is performed digitally, which facilitates IC integration. Note that the resolution of A / D conversion is any one of 16 bits, 14 bits, and 12 bits.

そして、A/D変換回路301からは、マイクロホンM1が出力する音声信号をA/D変換したデジタル値a11,b11,c11,d11,e11,………で構成される音声信号Y12が出力される(図9(f)参照)。また、A/D変換回路311からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a21,b21,c21,d21,e21,………で構成される音声信号Y221が出力され(図9(h)参照)、A/D変換回路312からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a22,b22,c22,d22,e22,………で構成される音声信号Y222が出力され(図9(g)参照)、………、A/D変換回路31nからは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a2n,b2n,c2n,d2n,e2n,………で構成される音声信号Y22nが出力されており、マイクロホンM2の音声信号は、周波数帯域G1〜Gnに各々対応して位相調整されたn系統の音声信号Y221〜Y22nとなる。   The A / D conversion circuit 301 outputs an audio signal Y12 composed of digital values a11, b11, c11, d11, e11,... Obtained by A / D converting the audio signal output from the microphone M1. (Refer FIG.9 (f)). The A / D conversion circuit 311 outputs an audio signal Y221 composed of digital values a21, b21, c21, d21, e21,... Obtained by A / D converting the audio signal output from the microphone M2. (See FIG. 9 (h)). From the A / D conversion circuit 312, the sound is composed of digital values a22, b22, c22, d22, e22,... A / D converted from the sound signal output from the microphone M2. The signal Y222 is output (see FIG. 9 (g)),..., From the A / D conversion circuit 31n, digital values a2n, b2n, c2n, d2n, A / D converted audio signals output from the microphone M2. An audio signal Y22n composed of e2n,... is output, and the audio signal of the microphone M2 is an n-system sound that is phase-adjusted corresponding to each of the frequency bands G1 to Gn. The signal Y221~Y22n.

このようにマイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相が周波数帯域G1〜Gn毎に一致するタイミングでA/D変換することで、本実施形態のように音声信号を低速(8〜16KHz)でA/D変換した場合でも、スピーカSPが発する音声に対するマイクロホンM1,M2の各音声信号間の上記遅延時間Td1〜Tdnは精度よく補償され、高速のA/D変換機能(例えば1MHz)を備える必要がなく、低コスト化を図ることができる。なお、以降の処理は、マイクロホンM1,M2の各音声信号のデジタル値をメモリに格納してデジタル処理されるのであるが、説明のため図10〜図12の各波形はアナログ波形で示している。   In this way, the A / D conversion is performed at the timing at which the phases of the sound signal of the microphone M1 and the sound signal of the microphone M2 coincide with each other for each of the frequency bands G1 to Gn. Even when A / D conversion is performed at 16 KHz), the delay times Td1 to Tdn between the sound signals of the microphones M1 and M2 with respect to the sound emitted from the speaker SP are accurately compensated, and a high-speed A / D conversion function (for example, 1 MHz) The cost can be reduced. In the following processing, the digital values of the audio signals of the microphones M1 and M2 are stored in the memory and digitally processed. For the sake of explanation, the waveforms in FIGS. 10 to 12 are shown as analog waveforms. .

次に、A/D変換回路301から出力される音声信号Y12は、バンドパスフィルタ321によって周波数帯域G1の成分が分離され、バンドパスフィルタ322によって周波数帯域G2の成分が分離され、………、バンドパスフィルタ32nによって周波数帯域Gnの成分が分離されて、n系統に振り分けられる。また、A/D変換回路311から出力される音声信号Y221は、バンドパスフィルタ331によって周波数帯域G1の成分が通過し、A/D変換回路312から出力される音声信号Y222は、バンドパスフィルタ332によって周波数帯域G2の成分が通過し、………、A/D変換回路31nから出力される音声信号Y22nは、バンドパスフィルタ33nによって周波数帯域Gnの成分が通過する。そして、バンドパスフィルタ321,331が出力する周波数帯域G1の音声信号Y131,Y231は、A/D変換回路301とA/D変換回路311とを互いに上記遅延時間Td11ずらして動作させることで同一位相となっており、バンドパスフィルタ322,332が出力する周波数帯域G2の音声信号Y132,Y232は、A/D変換回路301とA/D変換回路312とを互いに上記遅延時間Td12ずらして動作させることで同一位相となっており、………、バンドパスフィルタ32n,33nが出力する周波数帯域Gnの音声信号Y13n,Y23nは、A/D変換回路301とA/D変換回路31nとを互いに上記遅延時間Td1nずらして動作させることで同一位相となっている(図10参照)。   Next, in the audio signal Y12 output from the A / D conversion circuit 301, the component of the frequency band G1 is separated by the band pass filter 321, and the component of the frequency band G2 is separated by the band pass filter 322,. The components of the frequency band Gn are separated by the band pass filter 32n and distributed to n systems. The audio signal Y 221 output from the A / D conversion circuit 311 passes the component of the frequency band G 1 by the band pass filter 331, and the audio signal Y 222 output from the A / D conversion circuit 312 is the band pass filter 332. The component of the frequency band G2 passes through the sound signal Y22n output from the A / D conversion circuit 31n, and the component of the frequency band Gn passes through the bandpass filter 33n. The audio signals Y131 and Y231 in the frequency band G1 output from the bandpass filters 321 and 331 have the same phase by operating the A / D conversion circuit 301 and the A / D conversion circuit 311 with the delay time Td11 shifted from each other. The audio signals Y132 and Y232 in the frequency band G2 output from the bandpass filters 322 and 332 operate the A / D conversion circuit 301 and the A / D conversion circuit 312 with the delay time Td12 shifted from each other. ,..., The audio signals Y13n and Y23n in the frequency band Gn output from the bandpass filters 32n and 33n are delayed from each other by the A / D conversion circuit 301 and the A / D conversion circuit 31n. The same phase is obtained by operating by shifting the time Td1n (see FIG. 10).

次に、減衰回路341は、バンドパスフィルタ321を通過したマイクロホンM1の音声信号Y131を減衰させて音声信号Y141を生成し、減衰回路342は、バンドパスフィルタ322を通過したマイクロホンM1の音声信号Y132を減衰させて音声信号Y142を生成し、………、減衰回路34nは、バンドパスフィルタ32nを通過したマイクロホンM1の音声信号Y13nを減衰させて音声信号Y14nを生成し(図11参照)、各周波数帯域G1〜Gn毎に、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)や、マイクロホンM1,M2の感度差に相当するレベル調整を行ない、スピーカSPが発する音声に対して各周波数帯域G1〜Gnにおける両マイクロホンM1,M2の出力レベルを一致させる。   Next, the attenuation circuit 341 generates an audio signal Y141 by attenuating the audio signal Y131 of the microphone M1 that has passed through the bandpass filter 321, and the attenuation circuit 342 outputs the audio signal Y132 of the microphone M1 that has passed through the bandpass filter 322. Is attenuated to generate the audio signal Y142, and the attenuation circuit 34n attenuates the audio signal Y13n of the microphone M1 that has passed through the bandpass filter 32n to generate the audio signal Y14n (see FIG. 11). For each frequency band G1 to Gn, the level adjustment corresponding to the difference in distance between the microphones M1, M2 and the speaker SP (X2-X1) and the sensitivity difference between the microphones M1, M2 is performed, and the sound emitted from the speaker SP is adjusted. Thus, the output levels of the microphones M1 and M2 in the frequency bands G1 to Gn are matched.

次に、演算回路35aは、マイクロホンM2の音声信号Y231からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1においてスピーカSPからの音声成分が打ち消された音声信号を生成し、マイクロホンM2の音声信号Y232からマイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y23nからマイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し(図12(a)参照)、さらに各周波数帯域G1〜Gnでの前記減算結果を全て加算しており、スピーカSPからの音声成分が各周波数帯域G1〜Gn毎に打ち消された音声信号Yaが生成される(図12(b)参照)。なお、本実施形態では、演算回路35aにおいてマイクロホンM2の音声信号からマイクロホンM1の音声信号を減算しているが、マイクロホンM1の音声信号からマイクロホンM2の音声信号を減算して、音声信号Yaを生成してもよい。   Next, the arithmetic circuit 35a subtracts the sound signal Y141 of the microphone M1 from the sound signal Y231 of the microphone M2, thereby generating a sound signal in which the sound component from the speaker SP is canceled in the frequency band G1, and the microphone M2 By subtracting the audio signal Y142 of the microphone M1 from the audio signal Y232, an audio signal in which the audio component from the speaker SP is canceled in the frequency band G2 is generated,..., ... from the audio signal Y23n of the microphone M2 By subtracting the audio signal Y14n, an audio signal in which the audio component from the speaker SP is canceled in the frequency band Gn is generated (see FIG. 12A), and the subtraction results in the frequency bands G1 to Gn are further obtained. All are added, and the sound component from the speaker SP is in each frequency band. Audio signal Ya that is canceled for each 1~Gn is generated (see FIG. 12 (b)). In this embodiment, the arithmetic circuit 35a subtracts the sound signal of the microphone M1 from the sound signal of the microphone M2. However, the sound signal Ya is generated by subtracting the sound signal of the microphone M2 from the sound signal of the microphone M1. May be.

一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、集音面を話者Hに向かって配置したマイクロホンM2の音声信号Y21の振幅が、集音面をスピーカSPに向かって配置したマイクロホンM1の音声信号Y11の振幅よりも大きくなる。さらに、マイクロホンM1からの信号は減衰回路341〜34nで減衰するので、音声信号Y231〜23nに含まれる話者Hからの音声成分は、音声信号Y141〜14nに含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、音声信号Y141〜14nに含まれる話者Hからの音声成分と、音声信号Y231〜Y23nに含まれる話者Hからの音声成分との振幅差は大きくなり、演算回路35aで上記減算処理を施しても、音声信号Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。   On the other hand, for the sound uttered by the speaker H in front of the microphones M1 and M2, the amplitude of the sound signal Y21 of the microphone M2 having the sound collection surface arranged toward the speaker H is such that the sound collection surface faces the speaker SP. It becomes larger than the amplitude of the audio signal Y11 of the arranged microphone M1. Further, since the signal from the microphone M1 is attenuated by the attenuation circuits 341 to 34n, the speech component from the speaker H included in the speech signals Y231 to 23n is the speech component from the speaker H included in the speech signals Y141 to 14n. Even bigger. That is, the amplitude difference between the speech component from the speaker H included in the speech signals Y141 to 14n and the speech component from the speaker H included in the speech signals Y231 to Y23n becomes large, and the subtracting process is performed by the arithmetic circuit 35a. Even if applied, the signal corresponding to the voice uttered by the speaker H remains in the voice signal Ya in a state where the amplitude is maintained sufficiently.

以上のようにして信号処理部10eが出力する音声信号YaではスピーカSPからの音声成分が周波数帯域G1〜Gn毎に低減され、一方、通話装置A前方の話者HからマイクロホンM1,M2に向って発した音声成分は残っており、音声信号Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が広い周波数帯域に亘って大きくなり、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングの発生防止効果が向上している。   In the audio signal Ya output from the signal processing unit 10e as described above, the audio component from the speaker SP is reduced for each of the frequency bands G1 to Gn, while the speaker H in front of the communication device A is directed to the microphones M1 and M2. In the audio signal Ya, the relative difference between the audio component from the speaker H to be kept and the audio component from the speaker SP to be reduced becomes large over a wide frequency band. The effect of preventing howling that occurs when the microphones M1 and M2 pick up the sound output of the speaker SP is improved.

次に、本実施形態のようにマイクロホンの音声信号を周波数帯域毎に分割して、マイクロホンが拾うスピーカからの音声を低減させる処理について、数式を用いて説明する。   Next, a process for reducing the sound from the speaker picked up by the microphone by dividing the sound signal of the microphone for each frequency band as in this embodiment will be described using mathematical expressions.

まず、集音面をスピーカSPに向かって配置したマイクロホンM1、集音面を話者Hに向かって配置したマイクロホンM2が、スピーカSPからの音声を各々集音した場合に、マイクロホンM1,M2の各音声信号間に発生する位相差、振幅差が周波数に依存しないとすると、マイクロホンM1の集音特性をQ1(ω)、マイクロホンM2の集音特性をQ2’(ω)は、   First, when the microphone M1 in which the sound collection surface is arranged toward the speaker SP and the microphone M2 in which the sound collection surface is arranged toward the speaker H respectively collect the sounds from the speaker SP, the microphones M1 and M2 Assuming that the phase difference and amplitude difference generated between the audio signals do not depend on the frequency, Q1 (ω) is the sound collection characteristic of the microphone M1, and Q2 ′ (ω) is the sound collection characteristic of the microphone M2.

Figure 0003976077
Figure 0003976077

Figure 0003976077
Figure 0003976077

となる。ここで、α、α、βは定数であり、[数1][数2]の各第1項はスピーカSPからの音声(スピーカ音)による信号であり、各第2項は話者Hからの音声による信号である。 It becomes. Here, α, α 1 , and β are constants, each first term of [Equation 1] and [Equation 2] is a signal from the speaker SP (speaker sound), and each second term is a speaker H It is a signal by voice.

そして、位相差、振幅差の周波数依存性を考慮せずに、減衰率aをQ1(ω)に乗じた値からQ2’(ω)を減算してスピーカSPからの音声を低減させるキャンセル処理を行うと、キャンセル後の信号Ycan’は、   Then, without considering the frequency dependence of the phase difference and the amplitude difference, a canceling process for reducing the sound from the speaker SP by subtracting Q2 ′ (ω) from the value obtained by multiplying the attenuation factor a by Q1 (ω). If done, the signal Ycan 'after cancellation is

Figure 0003976077
Figure 0003976077

となり、スピーカSPからの信号はキャンセルされ、話者Hからの信号だけが残る。 Thus, the signal from the speaker SP is canceled and only the signal from the speaker H remains.

しかしながら、実際には、マイクロホンM1,M2の各音声信号間に発生する位相差、振幅差が周波数に依存しており、この周波数依存性を考慮したマイクロホンM2の集音特性Q2(ω)は、   However, in reality, the phase difference and amplitude difference generated between the audio signals of the microphones M1 and M2 depend on the frequency, and the sound collection characteristic Q2 (ω) of the microphone M2 in consideration of this frequency dependency is

Figure 0003976077
Figure 0003976077

となる。 It becomes.

そして、位相差、振幅差の周波数依存性を考慮して、減衰率aをQ1(ω)に乗じた値からQ2(ω)を減算してスピーカSPからの音声を低減させるキャンセル処理を行うと、キャンセル後の信号Ycanは、   Then, in consideration of the frequency dependence of the phase difference and the amplitude difference, canceling processing for reducing the sound from the speaker SP by subtracting Q2 (ω) from the value obtained by multiplying the attenuation factor a by Q1 (ω) is performed. The canceled signal Ycan is

Figure 0003976077
Figure 0003976077

となる。ここで、[数5]の第1項はスピーカSPからの音声の残信号であり、第1項内のθ(ω)は、スピーカSPからの音声をマイクロホンM1,M2で集音した場合の位相差(マイクロホンM2−マイクロホンM1)であり、以後スピーカ音の位相差θ(ω)と称する。また第2項は話者Hからの音声による信号である。 It becomes. Here, the first term of [Equation 5] is a residual signal of the sound from the speaker SP, and θ (ω) in the first term is the sound when the sound from the speaker SP is collected by the microphones M1 and M2. This is the phase difference (microphone M2−microphone M1) and is hereinafter referred to as the phase difference θ (ω) of the speaker sound. The second term is a voice signal from the speaker H.

次に、スピーカSPから音声の残信号である[数5]の第1項内の{α(ω)exp(−jθ(ω))−α}を、周波数帯域毎に展開した{α(ω)exp(−jθ(ω))−α}に注目すると、問題となっているのはスピーカSPからの信号の振幅がαからどの程度減衰しているかであるから、ここでα(ω),αをαで割った結果が各々a(ω),aであるとすると、[数6]のようになる。 Next, {α 1 (ω) exp (−jθ (ω)) − α 1 } in the first term of [Equation 5], which is a residual signal of speech from the speaker SP, is expanded for each frequency band {α Focusing on 1 (ω) exp (−jθ k (ω)) − α k }, the problem is how much the amplitude of the signal from the speaker SP is attenuated from α 1. If α 1 (ω) and α k divided by α are a (ω) and a k , respectively, [Equation 6] is obtained.

Figure 0003976077
Figure 0003976077

ここで、a(ω)は、スピーカSPからの音声をマイクロホンM1,M2で集音した各音声信号の振幅比(マイクロホンM2/マイクロホンM1)であり、以後スピーカ音の振幅比a(ω)と称する。そして、[数6]内の|a(ω)exp{−j(θ(ω)―θ)}−a|をフェーザベクトルで図示すると、図13のベクトルVeのようになる。 Here, a (ω) is the amplitude ratio (microphone M2 / microphone M1) of each audio signal obtained by collecting the sound from the speaker SP with the microphones M1 and M2, and is hereinafter referred to as the amplitude ratio a (ω) of the speaker sound. Called. Then, | a (ω) exp {−j (θ k (ω) −θ)} − a k | in [Equation 6] is represented by a phasor vector as a vector Ve in FIG.

次に、実際に測定したスピーカ音の振幅比a(ω)と、スピーカ音の位相差θ(ω)を、図14(a)(b)に示す。スピーカ音の振幅比a(ω)、スピーカ音の位相差θ(ω)ともに、周波数が高くなるにしたがって増加する傾向にある。そこで、スピーカ音の振幅比a(ω)が、周波数400Hzから4000Hzにおいて、−20dB(0.1)から−16dB(0.16)まで線形に推移し、スピーカ音の位相差θ(ω)が、周波数400Hzから4000Hzにおいて、−5°から25°まで線形に推移したとすると、[数7]、[数8]の近似式が導出される。   Next, the actually measured speaker sound amplitude ratio a (ω) and the speaker sound phase difference θ (ω) are shown in FIGS. Both the amplitude ratio a (ω) of the speaker sound and the phase difference θ (ω) of the speaker sound tend to increase as the frequency increases. Therefore, the amplitude ratio a (ω) of the speaker sound changes linearly from −20 dB (0.1) to −16 dB (0.16) at a frequency of 400 Hz to 4000 Hz, and the phase difference θ (ω) of the speaker sound is changed. Assuming that the frequency changes linearly from −5 ° to 25 ° at a frequency of 400 Hz to 4000 Hz, approximate expressions of [Equation 7] and [Equation 8] are derived.

Figure 0003976077
Figure 0003976077

Figure 0003976077
Figure 0003976077

下記[数9]は、スピーカ音のキャンセル量Zmを導出する数式であり、   The following [Equation 9] is a mathematical formula for deriving the cancellation amount Zm of the speaker sound.

Figure 0003976077
Figure 0003976077

この[数9]に上記[数7]、[数8]を代入した数式を用いて、本実施形態の周波数分割を行わずに、スピーカ音のキャンセル量が1つの周波数1KHzまたは3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の各理論値Yt1,Yt2は図15(a)に示され、この場合のスピーカ音のキャンセル量の各実測値Ys1,Ys2は図15(b)に示され、周波数1KHzまたは3KHzでキャンセル量が各々ピークとなる特性で表されており、各特性においてスピーカ音のキャンセル効果が十分得られる周波数範囲は、周波数1KHzまたは3KHzを中心とした比較的狭い範囲に限られる。なお、スピーカ音のキャンセル量とは、話者Hからの音声を集音することを目的とするマイクロホンM2に回りこんだスピーカ音の低減量とする。 Using the formula obtained by substituting the above [Equation 7] and [Equation 8] into this [Equation 9], the amount of cancellation of the speaker sound is optimal at one frequency of 1 KHz or 3 KHz without performing frequency division of this embodiment. The theoretical values Yt1 and Yt2 of the cancellation amount of the speaker sound when adjusted to be as shown in FIG. 15A are shown in FIG. 15A, and the actually measured values Ys1 and Ys2 of the cancellation amount of the speaker sound in this case are shown in FIG. ) And is represented by the characteristic that the cancellation amount peaks at a frequency of 1 KHz or 3 KHz, and the frequency range in which the speaker sound canceling effect is sufficiently obtained in each characteristic is relatively centered on the frequency of 1 KHz or 3 KHz. Limited to a narrow range. Note that the amount of cancellation of speaker sound is the amount of reduction in speaker sound that has sneak into the microphone M2 for the purpose of collecting the sound from the speaker H.

一方、上記[数9]に上記[数7]、[数8]を代入した数式を用いて、本実施形態の周波数分割を行い、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割した場合のスピーカ音のキャンセル量の理論値Yt11は図16(a)に示され、本実施形態の信号処理部10eを用いて、上記2KHz以下の周波数帯域G1、および上記2KHz以上の周波数帯域G2で各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys11は図16(b)に示され、周波数1KHzと3KHzの両方でキャンセル量がピークとなる特性を有しており、広い周波数帯域に亘ってスピーカ音のキャンセル効果があることが分かる。   On the other hand, the frequency division of the present embodiment is performed using the formula obtained by substituting the above [Equation 7] and [Equation 8] into the above [Equation 9], and the cancellation amount of the speaker sound is optimized at a frequency of 1 KHz, which is 2 KHz or less. The theoretical value Yt11 of the cancellation amount of the speaker sound when the frequency band G1 and the cancellation amount of the speaker sound are divided into two of the frequency band G2 of 2 KHz or more optimized at the frequency of 3 KHz is shown in FIG. The measured value Ys11 of the amount of cancellation of the speaker sound when the signal processing unit 10e of the embodiment is adjusted to be optimal in the frequency band G1 of 2 KHz or less and the frequency band G2 of 2 KHz or more is shown in FIG. As shown in (b), the cancellation amount peaks at both frequencies of 1 KHz and 3 KHz. It can be seen that there is Nseru effect.

なお、図16(a)に示すスピーカ音のキャンセル量の理論値Yt11と、図16(b)に示すスピーカ音のキャンセル量の実測値Ys11とは、その曲線形状は略同様であり、キャンセル量の周波数特性が理論どおり改善されているが、キャンセル量の大きさが異なっている。これは、実測値の測定環境として、(1)実際に使用したマイクロホンM1,M2のS/N比が60dB程度であること、(2)暗騒音40dBA程度の場所でスピーカSPへ回り込む音の音圧が80dB程度であること、(3)実機上に種々のノイズがあること、(4)A/D変換の際の量子化ビットによる分解能の限界等があることが要因と考えられる。   Note that the theoretical value Yt11 of the speaker sound cancellation amount shown in FIG. 16A and the actual measurement value Ys11 of the speaker sound cancellation amount shown in FIG. The frequency characteristics are improved as theoretically, but the amount of cancellation is different. This is because the actual measurement environment is (1) the S / N ratio of the microphones M1 and M2 actually used is about 60 dB, and (2) the sound of the sound that wraps around the speaker SP in a place where the background noise is about 40 dBA. The reason is considered to be that the pressure is about 80 dB, (3) there are various noises on the actual machine, and (4) there is a resolution limit due to the quantization bit at the time of A / D conversion.

そして、信号処理部10eが出力する音声信号Yaはエコーキャンセル部10cに出力され、エコーキャンセル部10b,10c(図4参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。   The audio signal Ya output from the signal processing unit 10e is output to the echo cancellation unit 10c, and the echo cancellation units 10b and 10c (see FIG. 4) perform further processing to prevent further howling.

まず、エコーキャンセル部10cは、エコーキャンセル部10bの出力を参照信号として取り込み、信号処理部10eの出力に対して演算を施すことにより、スピーカSPからマイクロホンM1,M2に回り込んだ音声信号をさらにキャンセリングする。一方、エコーキャンセル部10bも、エコーキャンセル部10cの出力を参照信号として取り込み、通信部10aの出力に対して演算を施すことにより、通話先の相手側でのスピーカからマイクロホンへの音声信号の回り込みをキャンセリングする。   First, the echo canceling unit 10c captures the output of the echo canceling unit 10b as a reference signal, and performs an operation on the output of the signal processing unit 10e, thereby further processing the audio signal that has circulated from the speaker SP to the microphones M1 and M2. Cancel. On the other hand, the echo canceling unit 10b also captures the output of the echo canceling unit 10c as a reference signal and performs an operation on the output of the communication unit 10a, thereby wrapping the audio signal from the speaker to the microphone on the other party side Cancel.

具体的には、エコーキャンセル部10b,10cは、スピーカSP−マイクロホンM1,M2−信号処理部10e−エコーキャンセル部10c−通信部10a−エコーキャンセル部10b−増幅部10d−スピーカSPで構成されるループ回路内に設けた可変損失手段(図示無し)での損失量を調節することにより、ループゲインが1以下となるようにしてハウリングを防止するのである。ここで、送話信号と受話信号とのうち信号レベルが小さいほうは重要ではないとみなし、信号レベルが小さいほうの伝送路に挿入された可変損失回路の伝送損失を大きくするようにしている。   Specifically, the echo cancellation units 10b and 10c are configured by a speaker SP-microphone M1, M2-signal processing unit 10e-echo cancellation unit 10c-communication unit 10a-echo cancellation unit 10b-amplification unit 10d-speaker SP. By adjusting the amount of loss in a variable loss means (not shown) provided in the loop circuit, the loop gain is set to 1 or less to prevent howling. Here, it is assumed that the smaller signal level of the transmission signal and the reception signal is not important, and the transmission loss of the variable loss circuit inserted in the transmission line having the smaller signal level is increased.

また、マイクロホンM1,M2の数は各々1つに限定されるものではなく、マイクロホンM1,M2として複数のマイクロホンを各々備えてもよい。   Further, the number of microphones M1 and M2 is not limited to one each, and a plurality of microphones may be provided as the microphones M1 and M2.

なお、本実施形態では、マイクロホンM1側に1つのA/D変換回路を設け、マイクロホンM2側に複数のA/D変換回路を設けて、マイクロホンM1側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn後のタイミングで、マイクロホンM2側のA/D変換回路が各々A/D変換を行うことで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。しかし、この構成とは逆に、マイクロホンM1側に複数のA/D変換回路を設け、マイクロホンM2側に1つのA/D変換回路を設けて、マイクロホンM2側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn前のタイミングで、マイクロホンM1側のA/D変換回路が各々A/D変換を行い、これらのデジタル信号に上記フィルタ処理、演算処理を施すことでも同様の効果を得ることができる。   In the present embodiment, one A / D conversion circuit is provided on the microphone M1 side, a plurality of A / D conversion circuits are provided on the microphone M2, and the A / D conversion circuit on the microphone M1 side performs A / D conversion. The A / D conversion circuit on the microphone M2 side performs A / D conversion at the timing after the delay times Td1 to Tdn for the frequency bands G1 to Gn from the timing of performing the audio signal, so that the audio signal of the microphone M1 and the microphone M2 Each phase of the audio signal is matched for each of the frequency bands G1 to Gn. However, contrary to this configuration, a plurality of A / D conversion circuits are provided on the microphone M1 side, one A / D conversion circuit is provided on the microphone M2, and the A / D conversion circuit on the microphone M2 side is an A / D conversion circuit. The A / D conversion circuit on the microphone M1 side performs A / D conversion at the timing before the delay times Td1 to Tdn for each frequency band G1 to Gn from the timing of performing D conversion, and the above filter processing is performed on these digital signals. Similar effects can be obtained by performing arithmetic processing.

(実施形態2)
実施形態1の信号処理部10eにおいては、演算回路35aの前段にバンドパスフィルタ321〜32n、331〜33nを設けて周波数分割を行っているが、本実施形態ではフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができる信号処理部10eについて説明する。なお、実施形態1と同様の構成には同一の符号を付して説明は省略する。
(Embodiment 2)
In the signal processing unit 10e of the first embodiment, band division filters 321 to 32n and 331 to 33n are provided in the previous stage of the arithmetic circuit 35a to perform frequency division. However, in this embodiment, the filter unit is not provided and the embodiment is not provided. A signal processing unit 10e that can obtain substantially the same effect as the frequency division of 1 will be described. In addition, the same code | symbol is attached | subjected to the structure similar to Embodiment 1, and description is abbreviate | omitted.

まず、本実施形態の信号処理部10eは図17に示すように演算回路35bを備え、演算回路35bは、A/D変換回路301からの音声信号Y12が減衰回路341〜34nを各々介して音声信号Y141〜14nとして入力され、A/D変換回路311〜31nからの音声信号Y221〜22nが直接入力されている。すなわち、スピーカSPが発する音声に対して、実施形態1と同様にA/D変換回路301、311〜31nの各A/D変換タイミングを周波数帯域G1〜Gn毎に設定することで、マイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一位相とし、さらに減衰回路341〜34nによってマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一振幅とした各信号が、バンドパスフィルタ321〜32n、331〜33n(図1参照)を介さずに、演算回路35bに入力されている。   First, the signal processing unit 10e of the present embodiment includes an arithmetic circuit 35b as shown in FIG. 17, and the arithmetic circuit 35b receives the audio signal Y12 from the A / D conversion circuit 301 through the attenuation circuits 341 to 34n. The signals Y141 to 14n are input, and the audio signals Y221 to 22n from the A / D conversion circuits 311 to 31n are directly input. That is, by setting the A / D conversion timings of the A / D conversion circuits 301 and 311 to 31n for the frequency bands G1 to Gn in the same manner as in the first embodiment, the microphone M1, The M2 audio signals have the same phase for each of the frequency bands G1 to Gn, and the attenuation circuits 341 to 34n make the audio signals of the microphones M1 and M2 have the same amplitude for each of the frequency bands G1 to Gn. The signals are input to the arithmetic circuit 35b without passing through the filters 321 to 32n and 331 to 33n (see FIG. 1).

演算回路35bは、マイクロホンM2の音声信号Y221からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1〜Gnに亘ってスピーカSPからの音声成分が低減された音声信号を生成するが、スピーカSPが発する音声に対する音声信号Y141,Y221は周波数帯域G1において位相、振幅が一致しており、特に周波数帯域G1のスピーカSPからの音声成分が打ち消された音声信号が生成される。同様に、マイクロホンM2の音声信号Y222から、マイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y22nから、マイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し、さらに各周波数帯域G1〜Gnでの減算結果を全て加算し、当該加算結果を周波数帯域の分割数nで割って平均化することで、スピーカSPからの音声成分が各周波数帯域毎G1〜Gn毎に打ち消された音声信号Yaが生成される。   The arithmetic circuit 35b subtracts the audio signal Y141 of the microphone M1 from the audio signal Y221 of the microphone M2, thereby generating an audio signal with reduced audio components from the speaker SP over the frequency bands G1 to Gn. The audio signals Y141 and Y221 for the sound emitted by the SP have the same phase and amplitude in the frequency band G1, and in particular, an audio signal in which the audio component from the speaker SP in the frequency band G1 is canceled is generated. Similarly, by subtracting the sound signal Y142 of the microphone M1 from the sound signal Y222 of the microphone M2, a sound signal in which the sound component from the speaker SP is canceled in the frequency band G2 is generated. By subtracting the audio signal Y14n of the microphone M1 from the audio signal Y22n, an audio signal in which the audio component from the speaker SP is canceled in the frequency band Gn is generated, and all the subtraction results in each frequency band G1 to Gn are generated. By adding and dividing the addition result by the frequency band division number n, an audio signal Ya in which the audio component from the speaker SP is canceled for each frequency band G1 to Gn is generated.

上記平均化処理によって、バンドパスフィルタ321〜32n、331〜33nのフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができるのであるが、この平均化処理について、以下詳述する。   According to the averaging process, it is possible to obtain substantially the same effect as the frequency division of the first embodiment without providing the bandpass filters 321-32n and 331-33n filter means. Detailed description.

平均化処理とは、スピーカSPが発する音声に対して、周波数帯域G1〜Gn毎に位相、振幅を一致させたマイクロホンM1,M2の各音声信号の差分を、各周波数帯域G1〜Gnに分離するフィルタ手段を通さずに単純に加算し、周波数帯域の分割数nで割って平均化する処理であり、フィルタ手段が不要となって、回路規模の縮小、コスト低減、小型化を図ることができる。下記[数10]は、上記平均化処理によるスピーカ音のキャンセル量Zmaveを導出する数式であり、   In the averaging process, the difference between the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched for the frequency bands G1 to Gn with respect to the sound emitted from the speaker SP is separated into the frequency bands G1 to Gn. This is a process of simply adding without passing through the filter means, and dividing and averaging by dividing the frequency band by the division number n. The filter means is not required, and the circuit scale, cost and size can be reduced. . The following [Equation 10] is a mathematical expression for deriving the speaker sound cancellation amount Zmave by the averaging process.

Figure 0003976077
Figure 0003976077

ここで、Zmkは、周波数帯域Gkで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、具体的には、Zm1は、周波数帯域G1で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、Zm2は、周波数帯域G2で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、………、Zmnは、周波数帯域Gnで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量である。 Here, Zmk is the amount of cancellation of speaker sound by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gk. Specifically, Zm1 is the phase in the frequency band G1. , The amount of speaker sound cancellation by the subtraction processing of the audio signals of the microphones M1 and M2 having the same amplitude, and Zm2 is the subtraction of the audio signals of the microphones M1 and M2 having the same phase and amplitude in the frequency band G2. Zmn is the amount of speaker sound canceled by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gn.

例えば、図18に示すようにスピーカ音のキャンセル量が周波数1KHz、3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys1,Ys2を加算し、当該加算結果を周波数帯域の分割数n=2で割ることで、本実施形態の平均化処理によるキャンセル量の理論値Yt21が求められる。   For example, as shown in FIG. 18, the speaker sound cancellation amounts Ys1 and Ys2 when the speaker sound cancellation amounts are adjusted to be optimal at frequencies of 1 KHz and 3 KHz, respectively, are added, and the result of the addition is added to the frequency band. By dividing by the division number n = 2, the theoretical value Yt21 of the cancellation amount by the averaging process of the present embodiment is obtained.

また、図19は、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割して、上記平均化処理を行った場合のスピーカ音のキャンセル量の実測値Ys21、および実測値Ys21の近似曲線Ys22を示しており、極端にキャンセル量の高い周波数帯域はないが、広い周波数帯域でキャンセル量が平均化されており、広い周波数帯域に亘って十分なスピーカ音のキャンセル効果があることが分かる。   Further, FIG. 19 is divided into a frequency band G1 of 2 KHz or less optimized for a speaker sound cancellation amount at a frequency of 1 KHz, and a frequency band G2 of 2 KHz or more optimized for a speaker sound cancellation amount of a frequency of 3 KHz. The measured value Ys21 of the speaker sound cancellation amount when the averaging process is performed, and the approximate curve Ys22 of the actual measurement value Ys21 are shown, and there is no frequency band with an extremely high cancellation amount, but the cancellation is performed in a wide frequency band. It can be seen that the amount is averaged and there is a sufficient speaker sound canceling effect over a wide frequency band.

なお、本実施形態では、マイクロホンM1側に1つのA/D変換回路を設け、マイクロホンM2側に複数のA/D変換回路を設けて、マイクロホンM1側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn後のタイミングで、マイクロホンM2側のA/D変換回路が各々A/D変換を行うことで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。しかし、この構成とは逆に、マイクロホンM1側に複数のA/D変換回路を設け、マイクロホンM2側に1つのA/D変換回路を設けて、マイクロホンM2側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn前のタイミングで、マイクロホンM1側のA/D変換回路が各々A/D変換を行い、これらのデジタル信号に上記演算処理を施すことでも同様の効果を得ることができる。   In the present embodiment, one A / D conversion circuit is provided on the microphone M1 side, a plurality of A / D conversion circuits are provided on the microphone M2, and the A / D conversion circuit on the microphone M1 side performs A / D conversion. The A / D conversion circuit on the microphone M2 side performs A / D conversion at the timing after the delay times Td1 to Tdn for the frequency bands G1 to Gn from the timing of performing the audio signal, so that the audio signal of the microphone M1 and the microphone M2 Each phase of the audio signal is matched for each of the frequency bands G1 to Gn. However, contrary to this configuration, a plurality of A / D conversion circuits are provided on the microphone M1 side, one A / D conversion circuit is provided on the microphone M2, and the A / D conversion circuit on the microphone M2 side is an A / D conversion circuit. The A / D conversion circuit on the microphone M1 side performs A / D conversion at the timing before the delay time Td1 to Tdn for each frequency band G1 to Gn from the timing of performing D conversion, and the above arithmetic processing is performed on these digital signals. The same effect can be obtained by applying.

実施形態1の通話装置の信号処理部の回路構成図である。2 is a circuit configuration diagram of a signal processing unit of the communication device according to Embodiment 1. FIG. 同上の構成を示す側面断面図である。It is side surface sectional drawing which shows a structure same as the above. 同上の構成を示す斜視図である。It is a perspective view which shows a structure same as the above. 同上の音声処理部の構成を示す回路図である。It is a circuit diagram which shows the structure of an audio | voice processing part same as the above. 同上のマイクロホン基板の構成を示す側面断面図である。It is side surface sectional drawing which shows the structure of a microphone substrate same as the above. 同上のベアチップの構成を示す側面断面図である。It is side surface sectional drawing which shows the structure of a bare chip same as the above. 同上のマイクロホン基板の構成を示す(a)簡略化した平面図、(b)簡略化した回路図である。It is the (a) simplified top view and (b) simplified circuit diagram which show the structure of a microphone substrate same as the above. 同上のインピーダンス変換回路の回路図である。It is a circuit diagram of an impedance conversion circuit same as the above. (a)〜(h)同上の信号処理部の信号波形図である。(A)-(h) It is a signal waveform diagram of the signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. 同上のスピーカからの残信号のフェーザベクトル図である。It is a phasor vector figure of the residual signal from a speaker same as the above. (a)同上の実際に測定したスピーカ音の振幅比、(b)スピーカ音の位相差の各周波数特性を示す。(A) Amplitude ratio of speaker sound actually measured, and (b) Frequency characteristics of phase difference of speaker sound are shown. (a)同上の周波数分割を行わない場合のスピーカ音のキャンセル量の理論値、(b)その実測値の各周波数特性を示す。(A) The theoretical value of the amount of cancellation of speaker sound when frequency division is not performed, and (b) Each frequency characteristic of the measured value is shown. (a)同上の周波数分割を行った場合のスピーカ音のキャンセル量の理論値、(b)その実測値の各周波数特性を示す。(A) The theoretical value of the amount of cancellation of the speaker sound when frequency division is performed, and (b) the frequency characteristics of the actually measured value. 実施形態2の通話装置の信号処理部の回路構成図である。It is a circuit block diagram of the signal processing part of the telephone apparatus of Embodiment 2. 同上の平均化処理によるキャンセル量の理論値の周波数特性を示す。The frequency characteristic of the theoretical value of the cancellation amount by the averaging process is shown. 同上の平均化処理によるキャンセル量の実測値の周波数特性を示す。The frequency characteristic of the actual measurement value of the cancellation amount by the averaging process is shown.

符号の説明Explanation of symbols

A 通話装置
SP スピーカ
M1,M2 マイクロホン
10e 信号処理部
301 A/D変換回路
311〜31n A/D変換回路
321〜32n バンドパスフィルタ
331〜33n バンドパスフィルタ
341〜34n 減衰回路
35a 演算回路
36 タイミング制御部
A Caller SP Speaker M1, M2 Microphone 10e Signal processing unit 301 A / D conversion circuit 311 to 31n A / D conversion circuit 321 to 32n Band pass filter 331 to 33n Band pass filter 341 to 34n Attenuation circuit 35a Arithmetic circuit 36 Timing control Part

Claims (4)

伝達された音声情報を出力するスピーカと、音声を集音してアナログの音声信号を出力する第1のマイクロホンと、スピーカからの距離が第1のマイクロホンより遠い位置に配置され、音声を集音してアナログの音声信号を出力する第2のマイクロホンと、前記第1,第2のマイクロホンが出力する各音声信号を信号処理して伝達する信号処理部とを備えて、第1,第2のマイクロホンとスピーカとの各距離の差に相当する音波の伝達時間を遅延時間とし、
前記信号処理部は、第1,第2のマイクロホンが出力するアナログの音声信号を各々デジタル信号に変換する第1,第2のA/D変換手段のいずれか一方を複数備えて、一方のA/D変換手段は互いに異なる所定の周波数帯域に各々対応して、他方のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間ずれたタイミングで各々A/D変換を行い、さらにスピーカからの音声に対する第1,第2のマイクロホンの各出力レベルを所定の周波数帯域毎に一致させる処理をA/D変換手段が出力するデジタル信号に施すレベル調整手段と、レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを備える
ことを特徴とする通話装置。
A speaker that outputs the transmitted sound information, a first microphone that collects sound and outputs an analog sound signal, and a distance from the speaker that is farther than the first microphone, collects sound. A second microphone for outputting an analog audio signal, and a signal processing unit for processing and transmitting each of the audio signals output from the first and second microphones. The transmission time of the sound wave corresponding to the difference in distance between the microphone and the speaker is the delay time,
The signal processing unit includes a plurality of any one of first and second A / D conversion means for converting analog audio signals output from the first and second microphones into digital signals, respectively, The / D conversion means respectively correspond to mutually different predetermined frequency bands, and each A / D conversion is performed at a timing shifted by a delay time for each predetermined frequency band from the timing at which the other A / D conversion means performs A / D conversion. Level adjusting means for performing processing for matching the output levels of the first and second microphones for the sound from the speaker for each predetermined frequency band on the digital signal output by the A / D conversion means, and level adjustment And a calculating means for outputting a difference between the audio signals of the first and second microphones that have passed through the means.
前記信号処理部は、前記一方のA/D変換手段の出力毎に所定の周波数帯域を通過させる第1のフィルタ手段と、他方のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする請求項1記載の通話装置。   The signal processing unit separates the output of the first filter unit that passes a predetermined frequency band for each output of the one A / D conversion unit and the output of the other A / D conversion unit for each predetermined frequency band. And a second filter means that passes the first and second filter means and the level adjusting means for each predetermined frequency band of the audio signals of the first and second microphones that have passed through the level adjusting means. The communication device according to claim 1, wherein the difference is added. 前記信号処理部は、前記第1のA/D変換手段を1つ備え、前記第2のA/D変換手段を複数備えて、複数の第2のA/D変換手段は、所定の周波数帯域に各々対応して、第1のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間後のタイミングで各々A/D変換を行い、さらに第1のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第1のフィルタ手段と、第2のA/D変換手段の出力毎に所定の周波数帯域を通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする請求項1または2記載の通話装置。   The signal processing unit includes one first A / D conversion unit, a plurality of second A / D conversion units, and a plurality of second A / D conversion units configured to have a predetermined frequency band. Corresponding to the first A / D conversion, the A / D conversion is performed at the timing after the delay time for each predetermined frequency band from the timing at which the first A / D conversion means performs the A / D conversion, and the first A / D conversion is further performed. First filter means for allowing the output of the conversion means to pass separately for each predetermined frequency band, and second filter means for passing the predetermined frequency band for each output of the second A / D conversion means. The calculating means adds a difference for each predetermined frequency band of the audio signals of the first and second microphones that have passed through the first and second filter means and the level adjusting means. 3. The communication device according to 1 or 2. 前記信号処理部は、前記第1のA/D変換手段を複数備え、前記第2のA/D変換手段を1つ備えて、複数の第1のA/D変換手段は、所定の周波数帯域に各々対応して、第2のA/D変換手段がA/D変換を行うタイミングから所定の周波数帯域毎の遅延時間前のタイミングで各々A/D変換を行い、さらに第1のA/D変換手段の出力毎に所定の周波数帯域を通過させる第1のフィルタ手段と、第2のA/D変換手段の出力を所定の周波数帯域毎に分離して通過させる第2のフィルタ手段とを備えて、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の所定の周波数帯域毎の差を加算することを特徴とする請求項1または2記載の通話装置。   The signal processing unit includes a plurality of the first A / D conversion units, includes one second A / D conversion unit, and the plurality of first A / D conversion units include a predetermined frequency band. Corresponding to each of the above, the A / D conversion is performed at a timing before the delay time for each predetermined frequency band from the timing at which the second A / D conversion means performs the A / D conversion, and the first A / D conversion is further performed. First filter means for allowing a predetermined frequency band to pass for each output of the conversion means, and second filter means for allowing the output of the second A / D conversion means to be separated and passed for each predetermined frequency band. The calculating means adds a difference for each predetermined frequency band of the audio signals of the first and second microphones that have passed through the first and second filter means and the level adjusting means. 3. The communication device according to 1 or 2.
JP2006326211A 2006-12-01 2006-12-01 Telephone device Expired - Fee Related JP3976077B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006326211A JP3976077B1 (en) 2006-12-01 2006-12-01 Telephone device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006326211A JP3976077B1 (en) 2006-12-01 2006-12-01 Telephone device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006316224A Division JP2008131508A (en) 2006-11-22 2006-11-22 Speech communication device

Publications (2)

Publication Number Publication Date
JP3976077B1 true JP3976077B1 (en) 2007-09-12
JP2008131624A JP2008131624A (en) 2008-06-05

Family

ID=38556272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006326211A Expired - Fee Related JP3976077B1 (en) 2006-12-01 2006-12-01 Telephone device

Country Status (1)

Country Link
JP (1) JP3976077B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011109614A (en) * 2009-11-20 2011-06-02 Daikin Industries Ltd Intercom system

Also Published As

Publication number Publication date
JP2008131624A (en) 2008-06-05

Similar Documents

Publication Publication Date Title
US20040066940A1 (en) Method and system for inhibiting noise produced by one or more sources of undesired sound from pickup by a speech recognition unit
US20060093174A1 (en) Hearing aid
US20140226836A1 (en) Voice input device and noise suppression method
US9532125B2 (en) Noise cancellation microphones with shared back volume
US20080212812A1 (en) Hearing apparatus having a receiver compensation coil
JP4793207B2 (en) Microphone device and acoustic device
JP2008135864A (en) Speech communication device
JP4893230B2 (en) Telephone device
GB2526945A (en) Noise cancellation microphones with shared back volume
JP3976077B1 (en) Telephone device
JP3976078B1 (en) Telephone device
JP2008022515A (en) Speech apparatus
JP3976079B1 (en) Telephone device
JP4853382B2 (en) Telephone device
JP3976075B2 (en) Intercom device
JP2008131508A (en) Speech communication device
US20060120541A1 (en) Combined microphone-loudspeaker
JP4432959B2 (en) Telephone device
JP3976076B1 (en) Telephone device
JP4989372B2 (en) Telephone device
JP4976921B2 (en) Telephone device
JP2009055483A (en) Intercom device
JP2008301132A (en) Communication device
JP2009177747A (en) Speech communication device
JP2008135860A (en) Speech communication device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees