JP3976078B1 - Telephone device - Google Patents

Telephone device Download PDF

Info

Publication number
JP3976078B1
JP3976078B1 JP2006326212A JP2006326212A JP3976078B1 JP 3976078 B1 JP3976078 B1 JP 3976078B1 JP 2006326212 A JP2006326212 A JP 2006326212A JP 2006326212 A JP2006326212 A JP 2006326212A JP 3976078 B1 JP3976078 B1 JP 3976078B1
Authority
JP
Japan
Prior art keywords
microphone
output
speaker
audio signal
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006326212A
Other languages
Japanese (ja)
Other versions
JP2008131625A (en
Inventor
耕作 北田
修 赤坂
恵一 ▲吉▼田
靖久 井平
武正 庄司
進弥 木本
泰史 有川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2006326212A priority Critical patent/JP3976078B1/en
Application granted granted Critical
Publication of JP3976078B1 publication Critical patent/JP3976078B1/en
Publication of JP2008131625A publication Critical patent/JP2008131625A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an inexpensive speech unit for preventing the occurrence of howling by canceling a sound component generated by a speaker from a transmission signal over a wide frequency band. <P>SOLUTION: An A/D conversion circuit 31 A/D converts a sound signal from a microphone M2 after lapse of a delay time to a sound wave having a frequency f1 from a point of time when an A/D conversion circuit 30 A/D converts a sound signal from a microphone M1. Estimating circuits 322 to 32n, when a phase difference of frequency f2 to fn component to a frequency f1 component of a sound signal collected by the microphone M2 is defined as deviation time Th2 to Thn, estimates a sound signal generated by the microphone M2 at deviation time Th2 to Thn from a point of a time when the A/D conversion circuit 31 performs A/D conversion based on an output of the A/D conversion circuit 31 to reduce sound volume from a speaker SP through attenuation circuit 351 to 35n and calculation circuit 36a. <P>COPYRIGHT: (C)2008,JPO&amp;INPIT

Description

本発明は、通話装置に関するものである。   The present invention relates to a call device.

従来、インターホンシステム等で屋内に設置される通話装置があり、他の場所に設置された通話装置からの音声を出力するスピーカや、他の通話装置へ伝達する音声を入力するマイクロホン等を備えている。   Conventionally, there is a communication device installed indoors with an interphone system or the like, which includes a speaker that outputs sound from a communication device installed in another place, a microphone that inputs sound transmitted to the other communication device, and the like. Yes.

そして、スピーカから発生した音声がマイクロホンに回り込むとハウリングが生じることになるから、様々なハウリング防止対策が採られている。例えば、スピーカと一対のマイクロホンとを備えて、両マイクロホンとスピーカとの距離の差に相当する音波の遅延時間だけスピーカに近いほうのマイクロホンの出力を遅延させる遅延回路と、両マイクロホンとスピーカとの距離の差に相当するレベル調整を行なってスピーカからの音声に対する両マイクロホンの出力レベルを一致させるレベル調整増幅回路と、遅延回路とレベル調整増幅回路とを通った両マイクロホンの出力を両入力とする差動増幅回路とを設け、差動増幅回路の出力を送話信号とする通話装置が提案された。   Since howling occurs when the sound generated from the speaker wraps around the microphone, various measures for preventing howling are taken. For example, a delay circuit that includes a speaker and a pair of microphones, delays the output of a microphone closer to the speaker by a delay time of sound waves corresponding to the difference in distance between the two microphones and the speaker, and both the microphone and the speaker. Adjusting the level corresponding to the difference in distance to match the output level of both microphones with respect to the sound from the speaker, and using both microphone outputs through the delay circuit and the level adjusting amplifier circuit as both inputs There has been proposed a communication device that is provided with a differential amplifier circuit and uses the output of the differential amplifier circuit as a transmission signal.

この通話装置では、両マイクロホンでスピーカからの音声を拾った後、遅延およびレベル調整を行なって両マイクロホンに入力されるスピーカからの音声成分を差動増幅回路で相殺することで、スピーカからの音声成分のみを除去して(キャンセル処理)、ハウリングを防止しようとしている。(例えば、特許文献1,2参照)。
特開平11−41342号公報 特許第3226121号公報
In this communication device, after picking up the sound from the speakers with both microphones, the delay and the level are adjusted, and the sound components from the speakers input to both microphones are canceled by the differential amplifier circuit. Only the components are removed (cancellation process) to prevent howling. (For example, refer to Patent Documents 1 and 2).
Japanese Patent Laid-Open No. 11-41342 Japanese Patent No. 3226121

しかしながら、スピーカから発せられた音声はマイクロホンに伝達されて音声信号に変換されるが、スピーカからマイクロホンへ伝わる音波の伝達関数は周波数特性を有しており、マイクロホンで集音される音声の位相、振幅は、周波数に依存している。したがって、上記特許文献1,2のような従来の構成では、特定の周波数近傍ではスピーカからの音声成分をキャンセルできるが、広い周波数帯域に亘ってスピーカからの音声成分をキャンセルすることはできなかった。また、コスト低減の要望もある。   However, the sound emitted from the speaker is transmitted to the microphone and converted into an audio signal, but the transfer function of the sound wave transmitted from the speaker to the microphone has a frequency characteristic, and the phase of the sound collected by the microphone, The amplitude depends on the frequency. Therefore, in the conventional configurations such as Patent Documents 1 and 2, the sound component from the speaker can be canceled near a specific frequency, but the sound component from the speaker cannot be canceled over a wide frequency band. . There is also a demand for cost reduction.

本発明は、上記事由に鑑みてなされたものであり、その目的は、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することにある。   The present invention has been made in view of the above-mentioned reasons, and its object is to cancel a voice component emitted from a speaker from a transmission signal over a wide frequency band and to prevent a howling from occurring at a low cost. Is to provide.

請求項1の発明は、伝達された音声情報を出力するスピーカと、音声を集音して音声信号を出力する第1のマイクロホンと、スピーカからの距離が第1のマイクロホンより遠い位置に配置され、音声を集音して音声信号を出力する第2のマイクロホンと、前記第1,第2のマイクロホンが出力する各音声信号を信号処理して伝達する信号処理部とを備え、前記信号処理部は、第1のマイクロホンが出力する音声信号をA/D変換する第1のA/D変換手段と、第1,第2のマイクロホンとスピーカとの各距離の差に相当する第1の周波数の音波の伝達時間を遅延時間として、第1のA/D変換手段が第1のマイクロホンからの音声信号をA/D変換したタイミングから前記遅延時間経過したときに第2のマイクロホンからの音声信号をA/D変換する第2のA/D変換手段と、第1,第2のマイクロホンのいずれか一方で集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、一方のマイクロホンが出力する音声信号をデジタル信号に変換するA/D変換手段の出力に基づいて、当該A/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで一方のマイクロホンから出力される音声信号を推測する推測手段と、スピーカからの音声に対する前記第1,第2のマイクロホンの各出力レベルを第1,第2の周波数を各々含む周波数帯域毎に一致させる処理を、前記一方のA/D変換手段および推測手段の各出力と前記他方のA/D変換手段の出力との少なくとも一方に施すレベル調整手段と、レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを具備することを特徴とする。   According to the first aspect of the present invention, the speaker that outputs the transmitted sound information, the first microphone that collects the sound and outputs the sound signal, and the distance from the speaker are arranged at a position farther than the first microphone. A second microphone that collects sound and outputs a sound signal; and a signal processing unit that processes and transmits each sound signal output from the first and second microphones, the signal processing unit The first A / D conversion means for A / D converting the audio signal output from the first microphone, and the first frequency corresponding to the difference between the distances between the first and second microphones and the speaker. The sound signal from the second microphone is obtained when the delay time elapses from the timing when the first A / D conversion means performs A / D conversion on the sound signal from the first microphone, with the sound wave transmission time as the delay time. A / D The phase difference of the second frequency component with respect to the first frequency component of the audio signal collected by one of the second A / D conversion means and the first and second microphones is defined as a shift time. Based on the output of the A / D conversion means for converting the audio signal output from one microphone into a digital signal, the one microphone is at a timing shifted from the timing at which the A / D conversion means performs A / D conversion. And a process for making the output levels of the first and second microphones corresponding to the sound from the speaker coincide with each frequency band including the first and second frequencies, respectively. Level adjusting means applied to at least one of the outputs of the one A / D converting means and the estimating means and the output of the other A / D converting means; , Characterized by comprising a calculating means for outputting a difference between the second microphone of the speech signal.

この発明によれば、周波数帯域毎に送話信号からスピーカが発する音声成分をキャンセルするので、広い周波数帯域に亘ってハウリングの発生を防止できる。さらに、推測手段によってA/D変換していない周波数の音声信号を推測するので、高速で動作するA/D変換手段または多数のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。すなわち、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができる。   According to the present invention, since the voice component emitted from the speaker is canceled from the transmission signal for each frequency band, howling can be prevented over a wide frequency band. Furthermore, since the audio signal having a frequency that is not subjected to A / D conversion is estimated by the estimation means, there is no need for an A / D conversion means or a large number of A / D conversion means that operate at high speed, cost reduction, circuit scale reduction, Miniaturization can be achieved. That is, it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmitted signal over a wide frequency band and prevent the occurrence of howling.

請求項2の発明は、請求項1において、前記推測手段は、第2のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第2のA/D変換手段の出力に基づいて、第2のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第2のマイクロホンから出力される音声信号を推測することを特徴とする。   According to a second aspect of the present invention, in the first aspect, the estimating means uses the phase difference of the second frequency component with respect to the first frequency component of the sound signal collected by the second microphone as a shift time, Based on the output of the second A / D conversion means, the audio signal output from the second microphone is estimated at a timing shifted from the timing at which the second A / D conversion means performs A / D conversion. It is characterized by.

この発明によれば、推測手段によって第2のマイクロホンが出力する音声信号を推測するので、高速で動作する第2のA/D変換手段または多数の第2のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。   According to the present invention, since the sound signal output from the second microphone is estimated by the estimation means, the second A / D conversion means or a large number of second A / D conversion means that operate at high speed is not necessary. Cost reduction, circuit scale reduction, and miniaturization can be achieved.

請求項3の発明は、請求項1において、前記推測手段は、第1のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第1のA/D変換手段の出力に基づいて、第1のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第1のマイクロホンから出力される音声信号を推測することを特徴とする。   According to a third aspect of the present invention, in the first aspect, the estimating means uses the phase difference of the second frequency component with respect to the first frequency component of the sound signal collected by the first microphone as a shift time, Estimating an audio signal output from the first microphone at a timing shifted from the timing at which the first A / D conversion unit performs A / D conversion based on the output of the first A / D conversion unit. It is characterized by.

この発明によれば、推測手段によって第1のマイクロホンが出力する音声信号を推測するので、高速で動作する第1のA/D変換手段または多数の第1のA/D変換手段が必要なく、コスト低減、回路規模の縮小、小型化を図ることができる。   According to the present invention, since the sound signal output from the first microphone is estimated by the estimation means, the first A / D conversion means or a large number of first A / D conversion means that operate at high speed is not necessary. Cost reduction, circuit scale reduction, and miniaturization can be achieved.

請求項4の発明は、請求項1乃至3いずれかにおいて、前記推測手段は、一方のA/D変換手段が連続して出力した2つのデジタル値を結ぶ直線に沿って音声信号が推移していると近似し、当該直線に基づいて前記推測動作を行うことを特徴とする。   According to a fourth aspect of the present invention, in any one of the first to third aspects, the estimating means is configured such that an audio signal changes along a straight line connecting two digital values continuously output by one A / D conversion means. The estimation operation is performed based on the straight line.

この発明によれば、A/D変換していない音声信号を、簡単な方法で推測することができる。   According to the present invention, an audio signal that has not been A / D converted can be estimated by a simple method.

請求項5の発明は、請求項1乃至4いずれかにおいて、前記一方のA/D変換手段の出力から第1の周波数を含む周波数帯域を通過させ、さらに前記推測手段の出力から第2の周波数を含む周波数帯域を通過させる第1のフィルタ手段と、前記他方のA/D変換手段の出力を前記周波数帯域毎に分離して通過させる第2のフィルタ手段とを備え、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の前記周波数帯域毎の差を加算して出力することを特徴とする。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the frequency band including the first frequency is passed from the output of the one A / D conversion means, and the second frequency is determined from the output of the estimation means. Including a first filter means for passing a frequency band including the second filter means for allowing the output of the other A / D conversion means to be separated and passed for each frequency band. The first and second microphones that have passed through the first and second filter means and the level adjusting means are added together with the difference for each frequency band and output.

この発明によれば、フィルタ手段によって周波数帯域毎に分割して送話信号からスピーカが発する音声成分をキャンセルするので、確実にハウリングの発生を防止できる。   According to the present invention, since the voice component emitted from the speaker is canceled from the transmission signal after being divided for each frequency band by the filter means, occurrence of howling can be surely prevented.

以上説明したように、本発明では、送話信号からスピーカが発する音声成分を広い周波数帯域に亘ってキャンセルして、ハウリングの発生を防止できる低コストの通話装置を提供することができるという効果がある。   As described above, according to the present invention, there is an effect that it is possible to provide a low-cost communication device that can cancel the sound component emitted from the speaker from the transmission signal over a wide frequency band and prevent the occurrence of howling. is there.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
本実施形態の通話装置Aは図2〜図4に示され、後面に開口を形成したボディA10と、ボディA10の開口に覆設したカバーA11とでハウジングA1を構成し、ハウジングA1内に、スピーカSP、マイクロホン基板MB1、通話スイッチSW1、音声処理部10を備える。
(Embodiment 1)
The communication device A of the present embodiment is shown in FIGS. 2 to 4, and a housing A1 is configured by a body A10 having an opening formed on the rear surface and a cover A11 covering the opening of the body A10. A speaker SP, a microphone board MB1, a call switch SW1, and a voice processing unit 10 are provided.

音声処理部10は、図4に示すように、通信部10a、エコーキャンセル部10b,10c、増幅部10d、信号処理部10eを備えたICで構成され、ハウジングA1内に配置される。他の部屋等に設置されている通話装置Aから情報線Lsを介して送信された音声信号は、通信部10aで受信され、エコーキャンセル部10bを介して増幅部10dで増幅された後、スピーカSPから出力される。また、通話スイッチSW1を操作することで通話可能状態となり、マイクロホン基板MB1上のマイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)から入力された各音声信号は信号処理部10eで後述する信号処理を施された後、エコーキャンセル部10cを通過し、通信部10aから情報線Lsを介して他の部屋等に設置されている通話装置Aへ送信される。すなわち、部屋間で双方向の通話が可能なインターホンとして機能するものである。なお、通話装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。   As shown in FIG. 4, the audio processing unit 10 is composed of an IC including a communication unit 10a, echo cancellation units 10b and 10c, an amplification unit 10d, and a signal processing unit 10e, and is arranged in the housing A1. A voice signal transmitted from the communication device A installed in another room or the like via the information line Ls is received by the communication unit 10a, amplified by the amplification unit 10d via the echo cancellation unit 10b, and then the speaker. Output from SP. Further, by operating the call switch SW1, a call can be made and each audio signal input from the microphone M1 (first microphone) and the microphone M2 (second microphone) on the microphone board MB1 is received by the signal processing unit 10e. After being subjected to signal processing to be described later, the signal passes through the echo cancel unit 10c, and is transmitted from the communication unit 10a to the communication device A installed in another room or the like via the information line Ls. That is, it functions as an intercom that allows two-way calls between rooms. Note that the power of the communication device A may be supplied from an outlet provided in the vicinity of the installation location or may be supplied via the information line Ls.

スピーカSPは、図2に示すように、冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成されて一端を開口した円筒状のヨーク20を具備し、ヨーク20の開口端から外側に向かって円形の支持体21が延設されている。   As shown in FIG. 2, the speaker SP is a cylindrical yoke 20 formed of an iron-based material having a thickness of about 0.8 mm such as cold rolled steel plate (SPCC, SPCEN), electromagnetic soft iron (SUY), etc., and having one end opened. The circular support body 21 is extended from the opening end of the yoke 20 toward the outside.

ヨーク20の筒内にはネオジウムで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の縁端面に固定されている。   A cylindrical permanent magnet 22 (for example, residual magnetic flux density of 1.39 T to 1.43 T) formed of neodymium is disposed in the cylinder of the yoke 20, and the outer peripheral edge of the dome-shaped diaphragm 23 is a support. 21 is fixed to the edge surface.

振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、ボイスコイル25がヨーク20の開口端に位置するように設けられており、ヨーク20の開口端近傍を前後方向に自在に移動する。   The diaphragm 23 is formed of a thermoplastic plastic (for example, a thickness of 12 μm to 50 μm) such as PET (PolyEthyleneTerephthalate) or PEI (Polyetherimide). A cylindrical bobbin 24 is fixed to the rear surface of the diaphragm 23, and is formed by winding a polyurethane copper wire (for example, φ0.05 mm) around a paper tube of kraft paper at the rear end of the bobbin 24. A voice coil 25 is provided. The bobbin 24 and the voice coil 25 are provided so that the voice coil 25 is positioned at the opening end of the yoke 20, and freely move in the front-rear direction in the vicinity of the opening end of the yoke 20.

ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。   When an audio signal is input to the polyurethane copper wire of the voice coil 25, an electromagnetic force is generated in the voice coil 25 due to the current of the audio signal and the magnetic field of the permanent magnet 22, so that the bobbin 24 moves back and forth with the diaphragm 23. Visible in the direction. At this time, a sound corresponding to the audio signal is emitted from the diaphragm 23. That is, an electrodynamic speaker SP is configured.

そして、スピーカSPの振動板23が対向するハウジングA1の前面内側には、リブ11が形成されており、スピーカSPの円形の支持体21の外周端部から前面側に突出した凸部21aの端面がリブ11に当接し、振動板23がハウジングA1の前面に内側から対向する状態でスピーカSPが固定される。   And the rib 11 is formed in the front inner side of housing A1 which the diaphragm 23 of speaker SP opposes, and the end surface of the convex part 21a protruded to the front side from the outer peripheral end part of the circular support body 21 of speaker SP. Comes into contact with the rib 11, and the speaker SP is fixed in a state where the diaphragm 23 faces the front surface of the housing A1 from the inside.

ハウジングA1内にスピーカSPが固定されると、ハウジングA1の前面内側とスピーカSPの表面側(振動板23側)とで囲まれた空間である前気室Bf、ハウジングA1の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。前気室Bfは、ハウジングA1の前面に複数設けた音孔12を介して外部に連通している。後気室Brは、スピーカSPの支持体21の端部とハウジングA1の内面のリブ11とが密着することで、前気室Bfとは絶縁した(連通していない)空間となり、さらにカバーA11がボディA10の後面開口に密着することで、外部とも絶縁した密閉された空間となっている。   When the speaker SP is fixed in the housing A1, the front air chamber Bf which is a space surrounded by the front inner side of the housing A1 and the front surface side (the diaphragm 23 side) of the speaker SP, the rear inner side and the inner side surface of the housing A1. And a rear air chamber Br which is a space surrounded by the back surface side (yoke 20 side) of the speaker SP. The front air chamber Bf communicates with the outside through a plurality of sound holes 12 provided on the front surface of the housing A1. The rear air chamber Br becomes a space that is insulated (not communicated) with the front air chamber Bf by closely contacting the end portion of the support 21 of the speaker SP and the rib 11 on the inner surface of the housing A1, and further covers the cover A11. Is in close contact with the rear opening of the body A10 to form a sealed space that is insulated from the outside.

次に、マイクロホン基板MB1は、図5に示すように、マイクロホンのベアチップBC1とICKa1との対、マイクロホンのベアチップBC2とICKa2との対をモジュール基板2の一面2aに各々実装し、ベアチップBC1、ICKa1、モジュール基板2上の配線パターン(図示無し)の各間、およびベアチップBC2、ICKa2、モジュール基板2上の配線パターン(図示無し)の各間をワイヤWで各々接続(ワイヤボンティング)した後、ベアチップBC1とICKa1の対を覆うようにシールドケースSC1を実装し、ベアチップBC2とICKa2の対を覆うように、シールドケースSC2を実装することで、ベアチップBC1、ICKa1、シールドケースSC1で構成されるマイクロホンM1、ベアチップBC2、ICKa2、シールドケースSC2で構成されるマイクロホンM2を備えている。   Next, as shown in FIG. 5, the microphone substrate MB1 has a pair of microphone bare chips BC1 and ICKa1 and a pair of microphone bare chips BC2 and ICKa2 mounted on one surface 2a of the module substrate 2, respectively, and bare chips BC1 and ICKa1. After connecting the wiring patterns (not shown) on the module substrate 2 and between the bare chips BC2, ICKa2 and the wiring patterns (not shown) on the module substrate 2 with wires W (wire bonding), A shield case SC1 is mounted so as to cover the pair of bare chips BC1 and ICKa1, and a shield case SC2 is mounted so as to cover the pair of bare chips BC2 and ICKa2, so that the microphone configured by the bare chips BC1, ICKa1, and shield case SC1 M1, bare chip BC2, I Ka2, and a composed microphone M2 with a shield case SC2.

ベアチップBC(ベアチップBC1またはBC2)は、図6に示すように、シリコン基板1bに穿設した孔1cを塞ぐようにシリコン基板1bの一面側にSi薄膜1dが形成され、このSi薄膜1dとの間にエアーギャップ1eを介して電極1fが形成され、さらに音声信号を出力するパッド1gが設けられており、コンデンサ型のシリコンマイクロホンを構成している。そして、外部からの音響信号がSi薄膜1dを振動させることで、Si薄膜1dと電極1fとの間の静電容量が変化して電荷量が変化し、この電荷量の変化に伴ってパッド1g,1gから音響信号に応じた電流が流れる。このベアチップBCは、シリコン基板1bをモジュール基板2上にダイボンディングし、特にベアチップBC2のSi薄膜1dは、モジュール基板2に穿設した音孔F2に対向している。   As shown in FIG. 6, in the bare chip BC (bare chip BC1 or BC2), an Si thin film 1d is formed on one surface side of the silicon substrate 1b so as to close the hole 1c formed in the silicon substrate 1b. An electrode 1f is formed between them via an air gap 1e, and a pad 1g for outputting an audio signal is further provided to constitute a capacitor type silicon microphone. Then, an external acoustic signal vibrates the Si thin film 1d, whereby the capacitance between the Si thin film 1d and the electrode 1f changes to change the amount of charge, and the pad 1g changes with this change in the amount of charge. , 1g, a current corresponding to the acoustic signal flows. In this bare chip BC, the silicon substrate 1b is die-bonded on the module substrate 2. In particular, the Si thin film 1d of the bare chip BC2 faces the sound hole F2 formed in the module substrate 2.

そして、マイクロホンM1は、音孔F1を穿設したシールドケースSC1の底面側を集音面とし、マイクロホンM2は、音孔F2を穿設したモジュール基板2への実装面側を集音面として、互いに逆方向となるモジュール基板2の両面方向に集音面を有するものになる。このように構成されたマイクロホン基板MB1は、モジュール基板2の一面2aにマイクロホンM1,M2の両方を実装しているので、マイクロホン基板MB1の厚さを薄くできる。   The microphone M1 uses the bottom surface side of the shield case SC1 with the sound hole F1 as a sound collecting surface, and the microphone M2 uses the mounting surface side with respect to the module substrate 2 with the sound hole F2 as a sound collecting surface. The module substrate 2 has sound collecting surfaces in both directions opposite to each other. Since the microphone substrate MB1 configured in this manner has both the microphones M1 and M2 mounted on the one surface 2a of the module substrate 2, the thickness of the microphone substrate MB1 can be reduced.

図7(a)は、マイクロホン基板MB1を、モジュール基板2の一面2a側から見た平面図であり、モジュール基板2は、マイクロホンM1を配置する矩形部2fと、マイクロホンM2を配置する矩形部2gと、矩形部2f,2g間を連結する連結部2hとで構成され、矩形部2gは矩形部2fより大きく形成される。そして、矩形部2gの縁部に沿って、負電源パッドP1,正電源パッドP2,出力1パッドP3,出力2パッドP4が設けられている。   FIG. 7A is a plan view of the microphone board MB1 as viewed from the one surface 2a side of the module board 2. The module board 2 has a rectangular part 2f in which the microphone M1 is arranged and a rectangular part 2g in which the microphone M2 is arranged. And a connecting portion 2h that connects the rectangular portions 2f and 2g, and the rectangular portion 2g is formed larger than the rectangular portion 2f. A negative power supply pad P1, a positive power supply pad P2, an output 1 pad P3, and an output 2 pad P4 are provided along the edge of the rectangular portion 2g.

そして、図7(b)に示すように、負電源パッドP1には外部から供給される電源電圧の負側、正電源パッドP2には電源電圧の正側が接続されて、モジュール基板2上の配線パターンを介してマイクロホンM1,M2に電源を供給している。また、出力1パッドP3からは、マイクロホンM1が集音した音声信号がモジュール基板2上の配線パターンを介して出力され、出力2パッドP4からは、マイクロホンM2が集音した音声信号がモジュール基板2上の配線パターンを介して出力される。なお、出力パッドP3,P4から出力される音声信号のグランドは、負電源パッドP1で兼用される。   As shown in FIG. 7B, the negative power supply pad P1 is connected to the negative side of the power supply voltage supplied from the outside, and the positive power supply pad P2 is connected to the positive side of the power supply voltage. Power is supplied to the microphones M1 and M2 through the pattern. Further, an audio signal collected by the microphone M1 is output from the output 1 pad P3 via a wiring pattern on the module substrate 2, and an audio signal collected by the microphone M2 is output from the output 2 pad P4. It is output via the upper wiring pattern. The ground of the audio signal output from the output pads P3 and P4 is shared by the negative power supply pad P1.

このように、マイクロホンM1,M2の電源を共通の負電源パッドP1、正電源パッドP2から供給し、さらにマイクロホンM1,M2の各出力のグランドを負電源パッドP1で兼用することで、パッドの数を減らすことができ、構成が簡単になる。   Thus, the power of the microphones M1 and M2 is supplied from the common negative power supply pad P1 and the positive power supply pad P2, and the ground of each output of the microphones M1 and M2 is shared by the negative power supply pad P1, so that the number of pads The configuration can be simplified.

次に、マイクロホン基板MB1の動作について説明する。   Next, the operation of the microphone substrate MB1 will be described.

まず、集音した音響信号に応じてベアチップBC1,BC2から流れる各電流は、ICKa1,Ka2によってインピーダンス変換されるとともに電圧信号に変換され、音声信号として出力1パッドP3、出力2パッドP4から各々出力される。   First, each current flowing from the bare chips BC1 and BC2 according to the collected acoustic signal is impedance-converted by ICKa1 and Ka2 and converted into a voltage signal, and output from the output 1 pad P3 and the output 2 pad P4 as audio signals, respectively. Is done.

ICKa(ICKa1またはKa2)は、図8の回路構成を備えており、電源パッドP1,P2から供給される電源電圧+V(例えば5V)を定電圧Vr(例えば12V)に変換するチップICからなる定電圧回路Kbを備えており、抵抗R11とベアチップBCとの直列回路に定電圧Vrが印加され、抵抗R11とベアチップBCとの接続中点はコンデンサC11を介してジャンクション型のJ−FET素子S11のゲート端子に接続される。J−FET素子S11のドレイン端子は動作電源+Vに接続され、ソース端子は抵抗R12を介して電源電圧の負側に接続される。ここで、J−FET素子S11は電気インピーダンスの変換用であり、このJ−FET素子S11のソース端子の電圧が音声信号として出力される。なお、ICKaのインピーダンスの変換回路は、上記構成に限定されるものではなく、例えばオペアンプによるソースフォロワ回路の機能を有する回路であってもよく、または必要に応じてICKa内に音声信号の増幅回路を設けてもよい。   The ICKa (ICKa1 or Ka2) has the circuit configuration of FIG. 8, and is a constant IC composed of a chip IC that converts the power supply voltage + V (for example, 5V) supplied from the power supply pads P1 and P2 into a constant voltage Vr (for example, 12V). A voltage circuit Kb is provided, a constant voltage Vr is applied to the series circuit of the resistor R11 and the bare chip BC, and a connection midpoint between the resistor R11 and the bare chip BC is connected to the junction type J-FET element S11 via the capacitor C11. Connected to the gate terminal. The drain terminal of the J-FET element S11 is connected to the operating power supply + V, and the source terminal is connected to the negative side of the power supply voltage via the resistor R12. Here, the J-FET element S11 is for electrical impedance conversion, and the voltage at the source terminal of the J-FET element S11 is output as an audio signal. Note that the ICKa impedance conversion circuit is not limited to the above-described configuration, and may be, for example, a circuit having a function of a source follower circuit using an operational amplifier, or an audio signal amplification circuit in the ICKa if necessary. May be provided.

そして、マイクロホン基板MB1は、上記のようにモジュール基板2上の配線パターンを介して信号伝達、給電を行うことで、信号線、給電線を効率よく構成できるとともに、ハウジングA1の外面に取付可能となる。本実施形態では、モジュール基板2の一面2aをハウジングA1の前面外側に沿って配置し、マイクロホンM1はハウジングA1前面の開口13を挿通して集音面を前気室Bfに向けており、シールドケースSC1の底面に穿設したマイクロホンM1の音孔F1はスピーカSPの振動板23に対向し、音孔F1を介してスピーカSPが発する音声を確実に集音することができる。また、マイクロホンM2は、ハウジングA1の前面に設けた凹部14に嵌合し、モジュール基板2に穿設したマイクロホンM2の音孔F2はスピーカSPの出力方向に向かってハウジングA1の外部(前方)に面しているので、音孔F2を介して伝達される、通話装置Aの前方に位置する話者からの音声を確実に集音することができる。なお、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。   The microphone board MB1 can efficiently configure the signal lines and the power supply lines by performing signal transmission and power supply via the wiring pattern on the module board 2 as described above, and can be attached to the outer surface of the housing A1. Become. In this embodiment, one surface 2a of the module substrate 2 is arranged along the outer front surface of the housing A1, and the microphone M1 is inserted through the opening 13 on the front surface of the housing A1 so that the sound collection surface faces the front air chamber Bf, and the shield The sound hole F1 of the microphone M1 formed in the bottom surface of the case SC1 faces the diaphragm 23 of the speaker SP, and the sound emitted from the speaker SP can be reliably collected through the sound hole F1. The microphone M2 is fitted into a recess 14 provided in the front surface of the housing A1, and the sound hole F2 of the microphone M2 formed in the module substrate 2 is located outside (frontward) the housing A1 in the output direction of the speaker SP. Therefore, it is possible to reliably collect the sound transmitted from the speaker located in front of the communication device A and transmitted through the sound hole F2. If the distances from the center of the speaker SP to the centers of the microphones M1 and M2 are X1 and X2, respectively, X1 <X2.

また、スピーカSPの裏面が面する後気室Brは、ハウジングA1内で密閉されるので、スピーカSPの裏面から放射される音声は後気室Brから漏れ難くなり、スピーカSPとマイクロホンM2との音響結合を低減させている。さらにスピーカSPの裏面(振動板23の裏面)から放射される音は、スピーカSPの表面(振動板23の表面)から放射される音と位相が反転しており、このスピーカSPの裏面から放射される音が前方に回り込むと、スピーカSPの表面から放射される音と互いに打ち消しあって、スピーカSPの放射音圧が低下し、前方にいる話者にはスピーカSPが発する音声が聞こえ難いものとなるが、上記のようにスピーカSPの裏面から放射される音はハウジングA1の外部に漏れ難いので、上記回り込みによるスピーカSPの放射音圧の低下を防いでいる。   Further, the rear air chamber Br facing the back surface of the speaker SP is sealed in the housing A1, so that sound radiated from the back surface of the speaker SP is difficult to leak from the rear air chamber Br, and the speaker SP and the microphone M2 are not connected. Acoustic coupling is reduced. Furthermore, the sound radiated from the back surface of the speaker SP (the back surface of the diaphragm 23) has a phase reversed from that of the sound radiated from the surface of the speaker SP (the surface of the diaphragm 23). When the generated sound circulates forward, the sound radiated from the surface of the speaker SP cancels each other, the radiated sound pressure of the speaker SP decreases, and the speaker in front cannot hear the sound emitted by the speaker SP. However, since the sound radiated from the back surface of the speaker SP is difficult to leak to the outside of the housing A1 as described above, a decrease in the radiated sound pressure of the speaker SP due to the wraparound is prevented.

また、マイクロホンM2を収納した凹部14は後気室Brと連通していない分離された空間であるので、マイクロホンM2はスピーカSPの発する音声をさらに集音し難くなり、スピーカSPとマイクロホンM2との音響結合をさらに低減させている。すなわち、上記構成によって、スピーカSPが発する音声と話者の発する音声とをマイクロホンM1,M2で分離して集音しているのである。   Further, since the concave portion 14 in which the microphone M2 is accommodated is a separated space that does not communicate with the rear air chamber Br, the microphone M2 is more difficult to collect the sound emitted by the speaker SP, and the speaker SP and the microphone M2 are separated. The acoustic coupling is further reduced. That is, with the above configuration, the sound emitted from the speaker SP and the sound emitted from the speaker are separated and collected by the microphones M1 and M2.

また、マイクロホン基板MB1をハウジングA1内に配置すると前気室Bfと後気室Brとの間の空間的な絶縁を維持することが困難であるが、本実施形態のようにマイクロホン基板MB1をハウジングA1の外面に取り付けることで、前気室Bfと後気室Brとの間の空間的な絶縁を維持することができる。   Further, when the microphone substrate MB1 is disposed in the housing A1, it is difficult to maintain the spatial insulation between the front air chamber Bf and the rear air chamber Br, but the microphone substrate MB1 is disposed in the housing as in the present embodiment. By attaching to the outer surface of A1, the spatial insulation between the front air chamber Bf and the rear air chamber Br can be maintained.

そして、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。   And in this embodiment, in order to prevent the howling which generate | occur | produces when the microphones M1 and M2 pick up the audio | voice output of the speaker SP, it has the following structures.

まず、音声処理部10に収納されている信号処理部10eは、図1に示すように、A/D変換回路30,31と、推測回路322〜32nと、バンドパスフィルタ331〜33nと、バンドパスフィルタ341〜34nと、減衰回路351〜35nと、演算回路36aと、タイミング制御部37とで構成される。A/D変換回路30,31の各動作は、タイミング制御部37によって制御されており、以下、各回路の動作について図9〜図14を用いて説明する。   First, as shown in FIG. 1, the signal processing unit 10e accommodated in the audio processing unit 10 includes A / D conversion circuits 30 and 31, estimation circuits 322 to 32n, band pass filters 331 to 33n, It comprises pass filters 341 to 34n, attenuation circuits 351 to 35n, an arithmetic circuit 36a, and a timing control unit 37. Each operation of the A / D conversion circuits 30 and 31 is controlled by the timing control unit 37, and the operation of each circuit will be described below with reference to FIGS.

まず、マイクロホンM1は、集音面がスピーカSPに向かって実装されており、通話装置Aの前方に位置する話者H(図1参照)が発する音声(送話音声)よりも、スピーカSPが発する音声を感度よく集音する。一方、マイクロホンM2は、集音面が前方に向かって配置されており、スピーカSPが発する音声よりも、通話装置Aの前方に位置する話者Hが発する音声を感度よく集音する。   First, the microphone M1 has a sound collection surface mounted toward the speaker SP, and the speaker SP is more effective than the sound (transmitted sound) emitted by the speaker H (see FIG. 1) located in front of the call device A. The sound that is emitted is collected with high sensitivity. On the other hand, the microphone M2 has a sound collection surface arranged forward, and collects sound emitted by the speaker H located in front of the communication device A with higher sensitivity than the sound emitted by the speaker SP.

すなわち、マイクロホンM1が出力する音声信号Y11は、スピーカSPが発する音声に対しては感度が高く振幅が大きくなるが、話者Hが発する音声に対しては感度が低く振幅が小さくなる。また、マイクロホンM2が出力する音声信号Y21は、話者Hが発する音声に対しては感度が高く振幅が大きくなるが、スピーカSPが発する音声に対しては感度が低く振幅が小さくなる。   That is, the sound signal Y11 output from the microphone M1 has high sensitivity and large amplitude with respect to the sound emitted from the speaker SP, but has low sensitivity and small amplitude with respect to the sound emitted from the speaker H. The sound signal Y21 output from the microphone M2 has high sensitivity and large amplitude for the sound emitted by the speaker H, but has low sensitivity and small amplitude for the sound emitted from the speaker SP.

さらに、送話時には、話者Hが発する音声とスピーカSPが発する音声との両方がマイクロホンM1,M2にて集音されるが、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離X1,X2はX1<X2であるので、スピーカSPからの音声に対しては、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に位相差が生じ、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Vs](Vsは音速)だけ、マイクロホンM1の音声信号Y11に比べてマイクロホンM2の音声信号Y21の位相が遅れる(図9(a)(b)参照)。この遅延時間Tdは、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。   Furthermore, at the time of transmission, both the sound emitted by the speaker H and the sound emitted by the speaker SP are collected by the microphones M1 and M2, but the distance X1 from the center of the speaker SP to the center of each of the microphones M1 and M2 , X2 satisfy X1 <X2, so that a phase difference occurs between the sound signal Y11 of the microphone M1 and the sound signal Y21 of the microphone M2 with respect to the sound from the speaker SP, and both the microphones M1, M2 and the speaker SP. The sound signal Y21 of the microphone M2 is compared with the sound signal Y11 of the microphone M1 by the sound wave delay time [Td = (X2-X1) / Vs] (Vs is the speed of sound) corresponding to the difference (X2-X1) in distance from the sound wave. Is delayed (see FIGS. 9A and 9B). The delay time Td is constant with respect to the frequency without depending on the frequency of the sound emitted from the speaker SP under ideal conditions (for example, a point sound source, a sealed housing structure, and no variation in CR of the circuit configuration). Although there is actually no ideal condition, it depends on the frequency of the sound emitted by the speaker SP.

また、スピーカSPからの音声に対する音声信号Y11,Y12の振幅も上記同様に、理想的な条件下では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。   Similarly, the amplitudes of the audio signals Y11 and Y12 with respect to the sound from the speaker SP are also constant with respect to the frequency under the ideal conditions without depending on the frequency of the sound emitted from the speaker SP. Since it is not an ideal condition, it depends on the frequency of the sound emitted by the speaker SP.

一方、マイクロホンM1,M2と話者Hとの各距離は等しいとみなせるので、話者Hが発する音声に対しては、両マイクロホンM1,M2の各音声信号Y11,Y21は、略同一位相となる。   On the other hand, since the distances between the microphones M1 and M2 and the speaker H can be considered to be equal, the voice signals Y11 and Y21 of the microphones M1 and M2 have substantially the same phase with respect to the voice emitted by the speaker H. .

そして、A/D変換回路30は、マイクロホンM1のアナログの音声信号Y11をデジタル信号に変換し、A/D変換回路31は、マイクロホンM2のアナログの音声信号Y21をデジタル信号に変換する。A/D変換回路30のA/D変換動作は、タイミング制御部37が出力する制御信号Si1の立ち上がりに同期して行われ、A/D変換回路31のA/D変換動作は、タイミング制御部37が出力する制御信号Si2の立ち上がりに同期して行われており、本実施形態の制御信号Si1、Si2の周波数は8〜16KHzに設定されて、各A/D変換回路における変換周期T1=62.5〜125μsecとしている。さらに、スピーカSPが発する周波数f1(第1の周波数)の音声に対して、マイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td1だけ遅れていることから、クロック信号Si2をクロック信号Si1に対して遅延時間Td1遅れて発生させるようにタイミング制御部37の動作を予め設定しておくことで、マイクロホンM1,M2が出力する各音声信号Y11,Y21が周波数f1で同一位相となる箇所をA/D変換している(図9(c)(d))。   The A / D conversion circuit 30 converts the analog audio signal Y11 of the microphone M1 into a digital signal, and the A / D conversion circuit 31 converts the analog audio signal Y21 of the microphone M2 into a digital signal. The A / D conversion operation of the A / D conversion circuit 30 is performed in synchronization with the rise of the control signal Si1 output from the timing control unit 37, and the A / D conversion operation of the A / D conversion circuit 31 is performed by the timing control unit. 37 is performed in synchronization with the rise of the control signal Si2, and the frequencies of the control signals Si1 and Si2 of this embodiment are set to 8 to 16 KHz, and the conversion cycle T1 = 62 in each A / D conversion circuit. .5 to 125 μsec. Further, since the phase of the audio signal Y21 of the microphone M2 is delayed by the delay time Td1 from the audio signal Y11 of the microphone M1 with respect to the audio of the frequency f1 (first frequency) emitted from the speaker SP, the clock signal By setting the operation of the timing control unit 37 in advance so that Si2 is generated with a delay time Td1 with respect to the clock signal Si1, the audio signals Y11 and Y21 output from the microphones M1 and M2 are the same at the frequency f1. A / D conversion is performed on the phase location (FIGS. 9C and 9D).

また、A/D変換回路30、31は、ΣΔ方式でA/D変換を行っており、ΣΔ方式の特徴であるノイズのみの周波数伝達特性を変化させてノイズ成分を信号成分より高い周波数領域に分布させるノイズシェーピングによって高いS/N比でのA/D変換が可能となり、さらには殆どの処理がデジタルで行われることによってIC化が容易となる。なお、A/D変換の分解能は、16bit,14bit,12bitのいずれかを用いる。   Further, the A / D conversion circuits 30 and 31 perform A / D conversion by the ΣΔ method, and change the frequency transfer characteristic of only noise, which is a feature of the ΣΔ method, so that the noise component becomes a higher frequency region than the signal component. The distributed noise shaping enables A / D conversion with a high S / N ratio, and further, most of the processing is performed digitally, which facilitates the implementation of IC. Note that the resolution of A / D conversion is any one of 16 bits, 14 bits, and 12 bits.

そして、A/D変換回路30からは、マイクロホンM1が出力する音声信号をA/D変換したデジタル値a1,b1,c1,d1,e1,………で構成される音声信号Y12が出力され(図9(e)参照)、A/D変換回路31からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a2,b2,c2,d2,e2,………で構成される音声信号Y221が出力されており(図9(f)参照)、マイクロホンM1のデジタル値a1とマイクロホンM2のデジタル値a2、マイクロホンM1のデジタル値b1とマイクロホンM2のデジタル値b2、マイクロホンM1のデジタル値c1とマイクロホンM2のデジタル値c2、………を各々対応させることで、マイクロホンM1,M2の各音声信号が周波数f1で同一位相となっている。しかし、前述のように、遅延時間TdはスピーカSPが発する音声の周波数に依存しており、本実施形態の構成ではマイクロホンM1,M2の各音声信号が周波数f1で同一位相となるが、周波数f1以外の周波数では同一位相となっていない。   The A / D conversion circuit 30 outputs an audio signal Y12 composed of digital values a1, b1, c1, d1, e1,... A / D converted from the audio signal output from the microphone M1. (See FIG. 9 (e)), the A / D conversion circuit 31 is configured by the digital values a2, b2, c2, d2, e2,... Obtained by A / D converting the audio signal output from the microphone M2. The signal Y221 is output (see FIG. 9F), the digital value a1 of the microphone M1, the digital value a2 of the microphone M2, the digital value b1 of the microphone M1, the digital value b2 of the microphone M2, and the digital value c1 of the microphone M1. And the digital values c2,... Of the microphone M2 respectively correspond to each other so that the audio signals of the microphones M1, M2 have the same phase at the frequency f1. To have. However, as described above, the delay time Td depends on the frequency of the sound emitted from the speaker SP. In the configuration of this embodiment, the sound signals of the microphones M1 and M2 have the same phase at the frequency f1, but the frequency f1. The other phases do not have the same phase.

そこで、マイクロホンM2で集音した音声信号の周波数f1の成分に対する、互いに異なる周波数f2〜fn(第2の周波数)の成分の各位相差をずれ時間Th2〜Thnとして、以下の処理を行う。なお、以降の処理は、マイクロホンM1,M2の各音声信号のデジタル値をメモリに格納してデジタル処理されるのであるが、説明のため図12〜図14の各波形はアナログ波形で示している。   Therefore, the following processing is performed with the phase differences of the components of the frequencies f2 to fn (second frequency) different from the component of the frequency f1 of the sound signal collected by the microphone M2 as the shift times Th2 to Thn. In the following processing, the digital values of the audio signals of the microphones M1 and M2 are stored in the memory and digitally processed. For the sake of explanation, the waveforms in FIGS. 12 to 14 are shown as analog waveforms. .

まず、A/D変換回路30から出力される音声信号Y12,A/D変換回路31から出力されるY221はn系統に各々分岐し、各系統において以下の処理が施される。A/D変換回路30から出力される音声信号Y12は、バンドパスフィルタ331によって周波数f1を含む周波数帯域G1の成分が分離され、バンドパスフィルタ332によって周波数f2を含む周波数帯域G2の成分が分離され、………、バンドパスフィルタ33nによって周波数fnを含む周波数帯域Gnの成分が分離されて、n系統に振り分けられる。   First, the audio signal Y12 output from the A / D conversion circuit 30 and the Y221 output from the A / D conversion circuit 31 are branched into n systems, and the following processing is performed in each system. The audio signal Y12 output from the A / D conversion circuit 30 is separated from the component of the frequency band G1 including the frequency f1 by the bandpass filter 331, and is separated from the component of the frequency band G2 including the frequency f2 by the bandpass filter 332. ,..., Components of the frequency band Gn including the frequency fn are separated by the band pass filter 33n and distributed to n systems.

また、A/D変換回路31から出力される音声信号Y221は、1系統を除くn−1系統において、推測回路322〜32nに入力される。推測回路322〜32nは、A/D変換回路31のデジタル値a2,b2,c2,d2,e2,………(音声信号Y221)を直線補間し、デジタル値a2,b2,c2,d2,e2,………間は曲線ではなく、直線で推移していると近似する。そして、この直線近似に基づいて、各デジタル値a2,b2,c2,d2,e2,………を取得したタイミングから、ずれ時間Th2〜Thnずれたタイミングで、マイクロホンM2から出力されていたと考えられる各音声信号を推測する。上記ずれ時間Th2〜Thnは、スピーカSPが発する音声をマイクロホンM2が集音したときに、スピーカSPが発する音声に含まれる周波数f2〜fnの各成分が、上記周波数f1の成分に比べてずれる時間であり、音声信号Y221に含まれる周波数f1の成分と同一位相となる周波数f2〜fnの成分を、推測回路322〜32nによって得るのである。すなわち、推測回路322〜32nは、周波数f2〜fnにおいて、マイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号を出力する。なお、推測する音声信号が、デジタル値a2,b2,c2,d2,e2,………に対して早いタイミングとなる方向へずれるか、遅いタイミングとなる方向へずれるかは、周波数f1に対する周波数f2〜fnの高低によって決まる。   Also, the audio signal Y221 output from the A / D conversion circuit 31 is input to the estimation circuits 322 to 32n in the n-1 system except for one system. The estimation circuits 322 to 32n linearly interpolate the digital values a2, b2, c2, d2, e2,... (Voice signal Y221) of the A / D conversion circuit 31, and the digital values a2, b2, c2, d2, e2 , ... Approximate that the distance is not a curve but a straight line. Based on this linear approximation, it is considered that the digital values a2, b2, c2, d2, e2,... Were output from the microphone M2 at the timing shifted by the shift times Th2 to Thn. Guess each audio signal. The shift times Th2 to Thn are times when the components of the frequencies f2 to fn included in the sound emitted from the speaker SP deviate from the components of the frequency f1 when the microphone M2 collects the sound emitted from the speaker SP. The components of the frequencies f2 to fn having the same phase as the component of the frequency f1 included in the audio signal Y221 are obtained by the estimation circuits 322 to 32n. That is, the estimation circuits 322 to 32n output the sound signal of the microphone M2 having the same phase as the sound signal Y12 of the microphone M1 at the frequencies f2 to fn. It should be noted that whether the estimated audio signal shifts in the direction of the earlier timing or the later timing of the digital values a2, b2, c2, d2, e2,. It depends on the height of ~ fn.

例えば、図10に示すように、マイクロホンM2の音声信号Y21の実際の波形Y21a上にあるデジタル値a2,b2の間が直線Y21bで近似される場合、A/D変換回路31がデジタル値b2を取得するタイミングtbから周波数fmの音波に対するずれ時間Thm前のタイミングでのマイクロホンM2からの実際の音声信号は波形Y21a上のasであるが、直線補間によって直線Y21b上の音声信号ahと推測するのである。ここで、スピーカSPからの音声信号がexp(jωt)で表されるとすると、a2=exp(jωt)となり、b2=exp(jω(t+T1))となるので、推測した音声信号ahは、[数1]のようになる。 For example, as shown in FIG. 10, when the digital value a2 and b2 on the actual waveform Y21a of the audio signal Y21 of the microphone M2 is approximated by a straight line Y21b, the A / D conversion circuit 31 sets the digital value b2. The actual audio signal from the microphone M2 at the timing before the shift time Thm with respect to the sound wave of the frequency fm from the timing tb to be acquired is as on the waveform Y21a, but is assumed to be the audio signal ah on the straight line Y21b by linear interpolation. is there. Here, the audio signal from the speaker SP is to be expressed by exp (jωt), a2 = exp (jωt a) becomes, b2 = exp since the (jω (t a + T1) ), inferred audio signal ah Becomes [Formula 1].

Figure 0003976078
Figure 0003976078

なお、ずれ時間Thm(Th2〜Thn)は、予め周波数f2〜fn毎に実測して設定されている。 Note that the shift time Thm (Th2 to Thn) is set in advance by actual measurement for each frequency f2 to fn.

[数1]をまとめると[数2]のようになる。   [Equation 1] is summarized as [Equation 2].

Figure 0003976078
Figure 0003976078

したがって直線補間によって推測された音声信号ahは、{(1+(exp(−jωt)−1)・Thm/T1)}の項によって、振幅、位相が変化し、振幅特性Ah(ω)は[数3]のようになり、位相特性θh(ω)は[数4]のようになる。   Therefore, the audio signal ah estimated by linear interpolation changes in amplitude and phase according to the term {(1+ (exp (−jωt) −1) · Thm / T1)}, and the amplitude characteristic Ah (ω) is expressed as 3], and the phase characteristic θh (ω) becomes [Formula 4].

Figure 0003976078
Figure 0003976078

Figure 0003976078
Figure 0003976078

また、フェーザベクトルで図10中のah、as、b2を表すと図11(a)(b)のようになる。図11(a)は、Thm<(T1/2)の場合を示す。なお、Thm<(T1/2)であっても同様に直線補間することができ、図11(b)は、Thm>(T1/2)の場合のフェーザベクトルを示す。   Further, ah, as, and b2 in FIG. 10 are represented by phasor vectors as shown in FIGS. 11 (a) and 11 (b). FIG. 11A shows a case where Thm <(T1 / 2). Note that linear interpolation can be performed in the same manner even if Thm <(T1 / 2), and FIG. 11B shows a phasor vector in the case of Thm> (T1 / 2).

推測回路322〜32nは、上記のように直線補間を用いて、マイクロホンM2の音声信号の推測処理を行っており、推測回路322は、周波数f2においてマイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号Y222を出力し、………、推測回路32nは、周波数fnにおいてマイクロホンM1の音声信号Y12と同一位相となるマイクロホンM2の音声信号Y22nを出力する。このように直線補間を行うことで音声信号の推測を容易に行うことができ、さらには周波数f2〜fnに対応するマイクロホンM2の音声信号をA/D変換する必要がないので回路規模の縮小、コスト低減、小型化を図ることができる。   The estimation circuits 322 to 32n perform the estimation process of the audio signal of the microphone M2 using linear interpolation as described above, and the estimation circuit 322 is a microphone having the same phase as the audio signal Y12 of the microphone M1 at the frequency f2. The M2 audio signal Y222 is output, and the estimation circuit 32n outputs the microphone M2 audio signal Y22n having the same phase as the audio signal Y12 of the microphone M1 at the frequency fn. By performing linear interpolation in this way, it is possible to easily estimate the audio signal, and further, since it is not necessary to A / D convert the audio signal of the microphone M2 corresponding to the frequencies f2 to fn, the circuit scale can be reduced. Cost reduction and downsizing can be achieved.

次に、A/D変換回路31から出力される音声信号Y221は、バンドパスフィルタ341によって周波数f1を含む周波数帯域G1の成分が通過し、推測回路322から出力される音声信号Y222は、バンドパスフィルタ342によって周波数f2を含む周波数帯域G2の成分が通過し、………、推測回路32nから出力される音声信号Y22nは、バンドパスフィルタ34nによって周波数fnを含む周波数帯域Gnの成分が通過する。   Next, the audio signal Y221 output from the A / D conversion circuit 31 passes the component of the frequency band G1 including the frequency f1 by the bandpass filter 341, and the audio signal Y222 output from the estimation circuit 322 is the bandpass filter. The component of the frequency band G2 including the frequency f2 passes through the filter 342, and the audio signal Y22n output from the estimation circuit 32n passes the component of the frequency band Gn including the frequency fn through the bandpass filter 34n.

そして、上記バンドパスフィルタ331,341が出力する周波数帯域G1の音声信号Y131,Y231は、A/D変換回路30とA/D変換回路31とを互いに上記遅延時間Td1ずらして動作させることで周波数f1において同一位相となっている。さらに、バンドパスフィルタ332,342が出力する周波数帯域G2の音声信号Y132,Y232、………、バンドパスフィルタ33n,34nが出力する周波数帯域Gnの音声信号Y13n,Y23nは、推測回路322、………、32nによって周波数f2〜fnにおいて各々同一位相(図12(a)(b)参照)となっている。   The audio signals Y131 and Y231 in the frequency band G1 output from the bandpass filters 331 and 341 are generated by operating the A / D conversion circuit 30 and the A / D conversion circuit 31 with the delay time Td1 shifted from each other. The phase is the same at f1. Further, the audio signals Y132, Y232,... Of the frequency band G2 output from the bandpass filters 332, 342, and the audio signals Y13n, Y23n of the frequency band Gn output from the bandpass filters 33n, 34n are the estimation circuits 322,. ..., 32n have the same phase at frequencies f2 to fn (see FIGS. 12A and 12B).

減衰回路351は、バンドパスフィルタ331を通過したマイクロホンM1の音声信号Y131を減衰させて音声信号Y141を生成し、減衰回路352は、バンドパスフィルタ332を通過したマイクロホンM1の音声信号Y132を減衰させて音声信号Y142を生成し、………、減衰回路35nは、バンドパスフィルタ33nを通過したマイクロホンM1の音声信号Y13nを減衰させて音声信号Y14nを生成し、各周波数帯域G1〜Gn毎に、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)や、マイクロホンM1,M2の感度差に相当するレベル調整を行ない、スピーカSPが発する音声の各周波数帯域G1〜Gn(周波数f2〜fn)における両マイクロホンM1,M2の出力レベルを一致させる(図13(a)(b)参照)。   The attenuation circuit 351 attenuates the audio signal Y131 of the microphone M1 that has passed through the bandpass filter 331 to generate an audio signal Y141, and the attenuation circuit 352 attenuates the audio signal Y132 of the microphone M1 that has passed through the bandpass filter 332 The attenuation circuit 35n generates an audio signal Y14n by attenuating the audio signal Y13n of the microphone M1 that has passed through the band-pass filter 33n, and generates the audio signal Y14n for each frequency band G1 to Gn. The level adjustment corresponding to the difference in distance between the microphones M1, M2 and the speaker SP (X2-X1) and the sensitivity difference between the microphones M1, M2 is performed, and the respective frequency bands G1 to Gn (frequency f2) of the sound emitted from the speaker SP. ˜fn), the output levels of both microphones M1 and M2 are matched (FIG. 1). (A) (b) reference).

次に、演算回路36aは、マイクロホンM2の音声信号Y231からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1においてスピーカSPからの音声成分が打ち消された音声信号を生成し、マイクロホンM2の音声信号Y232からマイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y23nからマイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し(図14(a)参照)、さらに各周波数帯域G1〜Gnでの前記減算結果を全て加算しており、スピーカSPからの音声成分が各周波数帯域G1〜Gn毎に打ち消された音声信号Yaが生成される(図14(b)参照)。なお、図14(a)では、音声信号Y14nを反転させた音声信号Y14n’を音声信号Y23nに加算することで、音声信号Y23nからマイクロホンM1の音声信号Y14nを減算している。   Next, the arithmetic circuit 36a subtracts the audio signal Y141 of the microphone M1 from the audio signal Y231 of the microphone M2, thereby generating an audio signal in which the audio component from the speaker SP is canceled in the frequency band G1, and the microphone M2 By subtracting the audio signal Y142 of the microphone M1 from the audio signal Y232, an audio signal in which the audio component from the speaker SP is canceled in the frequency band G2 is generated,..., ... from the audio signal Y23n of the microphone M2 By subtracting the audio signal Y14n, an audio signal in which the audio component from the speaker SP is canceled in the frequency band Gn is generated (see FIG. 14A), and the subtraction results in the frequency bands G1 to Gn are further obtained. All are added, and the sound component from the speaker SP is in each frequency band. Audio signal Ya that is canceled for each 1~Gn is generated (see FIG. 14 (b)). In FIG. 14A, the audio signal Y14n 'obtained by inverting the audio signal Y14n is added to the audio signal Y23n, so that the audio signal Y14n of the microphone M1 is subtracted from the audio signal Y23n.

一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、集音面を話者Hに向かって配置したマイクロホンM2の音声信号Y21の振幅が、集音面をスピーカSPに向かって配置したマイクロホンM1の音声信号Y11の振幅よりも大きくなる。さらに、マイクロホンM1からの信号は減衰回路351〜35nで減衰するので、音声信号Y231〜23nに含まれる話者Hからの音声成分は、音声信号Y141〜14nに含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、音声信号Y141〜Y14nに含まれる話者Hからの音声成分と、音声信号Y231〜Y23nに含まれる話者Hからの音声成分との振幅差は大きくなり、演算回路36aで上記減算処理を施しても、音声信号Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。   On the other hand, for the sound uttered by the speaker H in front of the microphones M1 and M2, the amplitude of the sound signal Y21 of the microphone M2 having the sound collection surface arranged toward the speaker H is such that the sound collection surface faces the speaker SP. It becomes larger than the amplitude of the audio signal Y11 of the arranged microphone M1. Further, since the signal from the microphone M1 is attenuated by the attenuation circuits 351 to 35n, the speech component from the speaker H included in the speech signals Y231 to 23n is the speech component from the speaker H included in the speech signals Y141 to 14n. Even bigger. That is, the amplitude difference between the speech component from the speaker H included in the speech signals Y141 to Y14n and the speech component from the speaker H included in the speech signals Y231 to Y23n increases, and the arithmetic circuit 36a performs the above subtraction process. Even if applied, the signal corresponding to the voice uttered by the speaker H remains in the voice signal Ya in a state where the amplitude is maintained sufficiently.

以上のようにして信号処理部10eが出力する音声信号YaではスピーカSPからの音声成分が周波数帯域G1〜Gn毎に低減され、一方、通話装置A前方の話者HからマイクロホンM1,M2に向って発した音声成分は残っており、音声信号Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が広い周波数帯域に亘って大きくなり、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングの発生を防止する効果が向上している。   In the audio signal Ya output from the signal processing unit 10e as described above, the audio component from the speaker SP is reduced for each of the frequency bands G1 to Gn, while the speaker H in front of the communication device A is directed to the microphones M1 and M2. In the audio signal Ya, the relative difference between the audio component from the speaker H to be kept and the audio component from the speaker SP to be reduced becomes large over a wide frequency band. The effect of preventing howling that occurs when the microphones M1 and M2 pick up the sound output of the speaker SP is improved.

本実施形態の信号処理部10eを用いて、スピーカ音のキャンセル量を周波数f1=1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数f2=3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割した場合のスピーカ音のキャンセル量は図15のデータY1で示され、このデータY1を近似すると曲線Y2で表され、周波数1KHz近傍と3KHz近傍の両方でキャンセル量がピークとなる特性を有しており、広い周波数帯域に亘ってスピーカ音のキャンセル効果があることが分かる。   Using the signal processing unit 10e of the present embodiment, the frequency range G1 of 2 KHz or less optimized for the speaker sound cancellation amount at the frequency f1 = 1 KHz, and 2 KHz or higher optimized for the speaker sound cancellation amount at the frequency f2 = 3 KHz. The cancellation amount of the speaker sound when divided into two in the frequency band G2 is indicated by data Y1 in FIG. 15. When this data Y1 is approximated, it is represented by a curve Y2, and the cancellation amount is near both frequencies near 1 KHz and near 3 KHz. It has a peak characteristic and it can be seen that there is an effect of canceling speaker sound over a wide frequency band.

次に、本実施形態の信号処理部10eによるスピーカ音のキャンセル効果について、数式を用いて説明する。スピーカSPからの音声信号がexp(jωt)で表されるとすると、マイクロホンM1,M2の各音声信号の位相を一致させないで、両音声信号の差をとった場合、信号処理部10eの出力Yaに残っているスピーカ音は、[数5]で表され、その振幅特性U1は[数6]のようになる。   Next, the effect of canceling speaker sound by the signal processing unit 10e of the present embodiment will be described using mathematical expressions. Assuming that the audio signal from the speaker SP is expressed by exp (jωt), the output Ya of the signal processing unit 10e is obtained when the phase of the audio signals of the microphones M1 and M2 is not matched and the difference between the two audio signals is taken. The remaining speaker sound is expressed by [Equation 5], and its amplitude characteristic U1 is expressed by [Equation 6].

Figure 0003976078
Figure 0003976078

Figure 0003976078
Figure 0003976078

次に、本実施形態の上記直線補間を用いた推測処理を行い、さらにマイクロホンM1,M2の各音声信号の位相、振幅を一致させた状態で、両音声信号の差をとった場合、信号処理部10eの出力Yaに残っているスピーカ音は、[数7]で表され、その振幅特性U2は[数8]のようになる。   Next, when the estimation process using the linear interpolation of the present embodiment is performed, and the phase and amplitude of the audio signals of the microphones M1 and M2 are matched, the signal processing is performed when the difference between the two audio signals is taken. The speaker sound remaining in the output Ya of the unit 10e is expressed by [Expression 7], and the amplitude characteristic U2 is expressed by [Expression 8].

Figure 0003976078
Figure 0003976078

Figure 0003976078
Figure 0003976078

なお、ずれ時間Thm、A/D変換周期T1は、上記[数1]〜[数4]におけるものと同様であり説明は省略する。 Note that the deviation time Thm and the A / D conversion cycle T1 are the same as those in the above [Equation 1] to [Equation 4], and the description thereof will be omitted.

そして、[振幅特性|U1|−振幅特性|U2|]は、[数9]のようになる。但し、D=Thm/T1とする。 [Amplitude characteristic | U1 | 2 −amplitude characteristic | U2 | 2 ] is expressed by [Equation 9]. However, D = Thm / T1.

Figure 0003976078
Figure 0003976078

[数9]の右辺の第1項[2D(1−D)(1+cos(ωT1))]は、0<ωT1<πより、正となる。また、右辺の第2項[2D{cos(ωT1/2)cos{ω((T1/2)−Thm)}}]は、0<ωT1<πであり、さらにThm<(T1/2)であれば、正となる。したがって、[|U1|−|U2|]は正であり、位相調整を行わないよりも、本実施形態の上記直線補間を用いた推測処理を行った上で位相調整を行うほうが、出力Yaに残っているスピーカ音は減少しており、キャンセル効果があるといえる。なお、上記ではThm<(T1/2)の場合について説明したが、Thm>(T1/2)であっても同様の効果を奏し得る。 The first term [2D (1-D) (1 + cos (ωT1))] on the right side of [Equation 9] is positive because 0 <ωT1 <π. The second term [2D {cos (ωT1 / 2) cos {ω ((T1 / 2) −Thm)}}] on the right side is 0 <ωT1 <π, and Thm <(T1 / 2). If there is, it becomes positive. Therefore, [| U1 | 2 − | U2 | 2 ] is positive, and it is more output when the phase adjustment is performed after the estimation process using the linear interpolation of the present embodiment is performed than when the phase adjustment is not performed. The speaker sound remaining in Ya has decreased and it can be said that there is a canceling effect. Although the case of Thm <(T1 / 2) has been described above, the same effect can be obtained even when Thm> (T1 / 2).

次に、信号処理部10eが出力する音声信号はエコーキャンセル部10cに出力され、エコーキャンセル部10b,10c(図4参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。   Next, the audio signal output from the signal processing unit 10e is output to the echo cancellation unit 10c, and the echo cancellation units 10b and 10c (see FIG. 4) perform further processing to prevent further howling.

まず、エコーキャンセル部10cは、エコーキャンセル部10bの出力を参照信号として取り込み、信号処理部10eの出力に対して演算を施すことにより、スピーカSPからマイクロホンM1,M2に回り込んだ音声信号をさらにキャンセリングする。一方、エコーキャンセル部10bも、エコーキャンセル部10cの出力を参照信号として取り込み、通信部10aの出力に対して演算を施すことにより、通話先の相手側でのスピーカからマイクロホンへの音声信号の回り込みをキャンセリングする。   First, the echo canceling unit 10c captures the output of the echo canceling unit 10b as a reference signal, and performs an operation on the output of the signal processing unit 10e, thereby further processing the audio signal that has circulated from the speaker SP to the microphones M1 and M2. Cancel. On the other hand, the echo canceling unit 10b also captures the output of the echo canceling unit 10c as a reference signal and performs an operation on the output of the communication unit 10a, thereby wrapping the audio signal from the speaker to the microphone on the other party side Cancel.

具体的には、エコーキャンセル部10b,10cは、スピーカSP−マイクロホンM1,M2−信号処理部10e−エコーキャンセル部10c−通信部10a−エコーキャンセル部10b−増幅部10d−スピーカSPで構成されるループ回路内に設けた可変損失手段(図示無し)での損失量を調節することにより、ループゲインが1以下となるようにしてハウリングを防止するのである。ここで、送話信号と受話信号とのうち信号レベルが小さいほうは重要ではないとみなし、信号レベルが小さいほうの伝送路に挿入された可変損失回路の伝送損失を大きくするようにしている。   Specifically, the echo cancellation units 10b and 10c are configured by a speaker SP-microphone M1, M2-signal processing unit 10e-echo cancellation unit 10c-communication unit 10a-echo cancellation unit 10b-amplification unit 10d-speaker SP. By adjusting the amount of loss in a variable loss means (not shown) provided in the loop circuit, the loop gain is set to 1 or less to prevent howling. Here, it is assumed that the smaller signal level of the transmission signal and the reception signal is not important, and the transmission loss of the variable loss circuit inserted in the transmission line having the smaller signal level is increased.

なお、マイクロホンM1,M2の数は各々1つに限定されるものではなく、マイクロホンM1,M2として複数のマイクロホンを各々備えてもよい。   Note that the number of microphones M1 and M2 is not limited to one each, and a plurality of microphones may be provided as the microphones M1 and M2.

(実施形態2)
実施形態1の信号処理部10eにおいては、演算回路36aの前段にバンドパスフィルタ331〜33n、341〜34nを設けて周波数分割を行っているが、本実施形態ではフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができる信号処理部10eについて説明する。なお、実施形態1と同様の構成には同一の符号を付して説明は省略する。
(Embodiment 2)
In the signal processing unit 10e according to the first embodiment, the band-pass filters 331 to 33n and 341 to 34n are provided in the previous stage of the arithmetic circuit 36a to perform frequency division. However, in the present embodiment, the filter means is not provided. A signal processing unit 10e that can obtain substantially the same effect as the frequency division of 1 will be described. In addition, the same code | symbol is attached | subjected to the structure similar to Embodiment 1, and description is abbreviate | omitted.

まず、本実施形態の信号処理部10eは図16に示すように演算回路36bを備え、演算回路36bは、マイクロホンM1の音声信号として、A/D変換回路30の出力を直接入力された減衰回路351〜35nが出力する音声信号Y141〜Y14nが入力されるとともに、マイクロホンM2の音声信号として、A/D変換回路31が出力する音声信号Y221、推測回路322〜32nが出力する音声信号Y222〜Y22nが直接入力される。すなわち、実施形態1と同様にスピーカSPが発する音声に対するマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一位相とし、さらに減衰回路351〜35nによってマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一振幅とした各信号が、バンドパスフィルタ331〜33n、341〜34n(図1参照)を介さずに、演算回路36bに入力されている。   First, the signal processing unit 10e of the present embodiment includes an arithmetic circuit 36b as shown in FIG. 16, and the arithmetic circuit 36b is an attenuation circuit in which the output of the A / D conversion circuit 30 is directly input as an audio signal of the microphone M1. The audio signals Y141 to Y14n output from 351 to 35n are input, the audio signal Y221 output from the A / D conversion circuit 31 and the audio signals Y222 to Y22n output from the estimation circuits 322 to 32n as the audio signals of the microphone M2. Is entered directly. That is, as in the first embodiment, the sound signals of the microphones M1 and M2 for the sound emitted from the speaker SP are set to the same phase for each of the frequency bands G1 to Gn, and the sound signals of the microphones M1 and M2 are further attenuated by the attenuation circuits 351 to 35n. Each signal having the same amplitude for each of the frequency bands G1 to Gn is input to the arithmetic circuit 36b without passing through the bandpass filters 331 to 33n and 341 to 34n (see FIG. 1).

演算回路36bは、マイクロホンM2の音声信号Y221からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1〜Gnに亘ってスピーカSPからの音声成分が低減された音声信号を生成するが、スピーカSPが発する音声に対する音声信号Y141,Y221は周波数f1において位相、振幅が一致しており、特に周波数帯域G1のスピーカSPからの音声成分が打ち消された音声信号が生成される。同様に、マイクロホンM2の音声信号Y222から、マイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y22nから、マイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し、各周波数帯域G1〜Gnでの減算結果を全て加算する。さらに当該加算結果を周波数帯域の分割数nで割って平均化することで、スピーカSPからの音声成分が各周波数帯域毎G1〜Gn毎に打ち消された音声信号Yaが生成される。   The arithmetic circuit 36b subtracts the audio signal Y141 of the microphone M1 from the audio signal Y221 of the microphone M2, thereby generating an audio signal in which the audio component from the speaker SP is reduced over the frequency bands G1 to Gn. The audio signals Y141 and Y221 for the sound emitted from the SP have the same phase and amplitude at the frequency f1, and in particular, an audio signal in which the audio component from the speaker SP in the frequency band G1 is canceled is generated. Similarly, by subtracting the sound signal Y142 of the microphone M1 from the sound signal Y222 of the microphone M2, a sound signal in which the sound component from the speaker SP is canceled in the frequency band G2 is generated. By subtracting the audio signal Y14n of the microphone M1 from the audio signal Y22n, an audio signal in which the audio component from the speaker SP is canceled in the frequency band Gn is generated, and all the subtraction results in each frequency band G1 to Gn are added. To do. Furthermore, by dividing the addition result by the frequency band division number n and averaging, an audio signal Ya in which the audio component from the speaker SP is canceled for each frequency band G1 to Gn is generated.

上記平均化処理によって、バンドパスフィルタ331〜33n、341〜34nのフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができるのであるが、この平均化処理について、以下詳述する。   The averaging process can obtain substantially the same effect as the frequency division of the first embodiment without providing the bandpass filters 331 to 33n and 341 to 34n, and the averaging process will be described below. Detailed description.

平均化処理とは、スピーカSPが発する音声に対して、周波数帯域G1〜Gn毎に位相、振幅を一致させたマイクロホンM1,M2の各音声信号の差分を、各周波数帯域G1〜Gnに分離するフィルタ手段を通さずに単純に加算し、周波数帯域の分割数nで割って平均化する処理であり、フィルタ手段が不要となって、回路規模の縮小、コスト低減、小型化を図ることができる。下記[数5]は、上記平均化処理によるスピーカ音のキャンセル量Zmaveを導出する数式であり、   In the averaging process, the difference between the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched for the frequency bands G1 to Gn with respect to the sound emitted from the speaker SP is separated into the frequency bands G1 to Gn. This is a process of simply adding without passing through the filter means, and dividing and averaging by dividing the frequency band by the division number n. The filter means is not required, and the circuit scale, cost and size can be reduced. . The following [Equation 5] is a mathematical expression for deriving the speaker sound cancellation amount Zmave by the averaging process.

Figure 0003976078
Figure 0003976078

ここで、Zmkは、周波数帯域Gkで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、具体的には、Zm1は、周波数帯域G1で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、Zm2は、周波数帯域G2で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、………、Zmnは、周波数帯域Gnで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量である。 Here, Zmk is the amount of cancellation of speaker sound by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gk. Specifically, Zm1 is the phase in the frequency band G1. , The amount of speaker sound cancellation by the subtraction processing of the audio signals of the microphones M1 and M2 having the same amplitude, and Zm2 is the subtraction of the audio signals of the microphones M1 and M2 having the same phase and amplitude in the frequency band G2. Zmn is the amount of speaker sound canceled by the above subtraction processing of the sound signals of the microphones M1 and M2 whose phases and amplitudes are matched in the frequency band Gn.

例えば、図17に示すように、スピーカ音のキャンセル量が周波数1KHz、3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys1,Ys2を加算し、当該加算結果を周波数帯域の分割数n=2で割ることで、本実施形態の平均化処理によるキャンセル量の理論値Yt21が求められる。   For example, as shown in FIG. 17, measured values Ys1 and Ys2 of the amount of cancellation of speaker sound when the amount of cancellation of speaker sound is adjusted to be optimal at frequencies of 1 KHz and 3 KHz, respectively, are added, and the addition result is expressed as a frequency. The theoretical value Yt21 of the cancellation amount by the averaging process of this embodiment is obtained by dividing by the number of divided bands n = 2.

また、図18は、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割して、上記平均化処理を行った場合のスピーカ音のキャンセル量の実測値Ys21、および実測値Ys21の近似曲線Ys22を示しており、極端にキャンセル量の高い周波数帯域はないが、広い周波数帯域でキャンセル量が平均化されており、十分なスピーカ音のキャンセル効果があることが分かる
なお、上記実施形態1,2では、推測回路322〜32nによって、マイクロホンM2の音声信号を周波数f2〜fn毎に推測して取得しているが、マイクロホンM1の音声信号を周波数f2〜fn毎に推測して、当該推測結果とマイクロホンM2の音声信号のデジタル値との間で上記同様の演算処理を行ってもよい(例えば、マイクロホンM1の音声信号Y12の分岐経路に推測回路322〜32nを設ける)。
Further, FIG. 18 is divided into a frequency band G1 of 2 KHz or less in which the amount of cancellation of the speaker sound is optimized at a frequency of 1 KHz and a frequency band G2 of 2 KHz or more in which the amount of cancellation of the speaker sound is optimized at a frequency of 3 KHz. The measured value Ys21 of the speaker sound cancellation amount when the averaging process is performed, and the approximate curve Ys22 of the actual measurement value Ys21 are shown, and there is no frequency band with an extremely high cancellation amount, but the cancellation is performed in a wide frequency band. In the first and second embodiments, the estimation circuit 322 to 32n estimates the audio signal of the microphone M2 for each frequency f2 to fn. The sound signal of the microphone M1 is estimated for each of the frequencies f2 to fn, and the estimated result is The same arithmetic processing as described above may be performed on the digital value of the audio signal of the microphone M2 (for example, estimation circuits 322 to 32n are provided in the branch path of the audio signal Y12 of the microphone M1).

実施形態1の通話装置の信号処理部の回路構成図である。2 is a circuit configuration diagram of a signal processing unit of the communication device according to Embodiment 1. FIG. 同上の構成を示す側面断面図である。It is side surface sectional drawing which shows a structure same as the above. 同上の構成を示す斜視図である。It is a perspective view which shows a structure same as the above. 同上の音声処理部の構成を示す回路図である。It is a circuit diagram which shows the structure of an audio | voice processing part same as the above. 同上のマイクロホン基板の構成を示す側面断面図である。It is side surface sectional drawing which shows the structure of a microphone substrate same as the above. 同上のベアチップの構成を示す側面断面図である。It is side surface sectional drawing which shows the structure of a bare chip same as the above. 同上のマイクロホン基板の構成を示す(a)簡略化した平面図、(b)簡略化した回路図である。It is the (a) simplified top view and (b) simplified circuit diagram which show the structure of a microphone substrate same as the above. 同上のインピーダンス変換回路の回路図である。It is a circuit diagram of an impedance conversion circuit same as the above. (a)〜(f)同上の信号処理部の信号波形図である。(A)-(f) It is a signal waveform diagram of the signal processing part same as the above. 同上の直線補間の概要を示す図である。It is a figure which shows the outline | summary of the linear interpolation same as the above. (a)(b)同上の直線補間の概要を示すフェーザベクトル図である。(A) (b) It is a phasor vector figure which shows the outline | summary of the linear interpolation same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. 同上の信号処理部によるキャンセル量を示す図である。It is a figure which shows the cancellation amount by the signal processing part same as the above. 実施形態2の通話装置の信号処理部の回路構成図である。It is a circuit block diagram of the signal processing part of the telephone apparatus of Embodiment 2. 同上の平均化処理によるキャンセル量の理論値の周波数特性を示す。The frequency characteristic of the theoretical value of the cancellation amount by the averaging process is shown. 同上の平均化処理によるキャンセル量の実測値の周波数特性を示す。The frequency characteristic of the actual measurement value of the cancellation amount by the averaging process is shown.

符号の説明Explanation of symbols

A 通話装置
SP スピーカ
M1,M2 マイクロホン
10e 信号処理部
30,31 A/D変換回路
322〜32n 推測回路
331〜33n バンドパスフィルタ
341〜34n バンドパスフィルタ
351〜35n 減衰回路
36a 演算回路
37 タイミング制御部
A Caller SP Speaker M1, M2 Microphone 10e Signal processor 30, 31 A / D converter circuit 322-32n Estimator circuit 331-33n Bandpass filter 341-34n Bandpass filter 351-35n Attenuator circuit 36a Arithmetic circuit 37 Timing controller

Claims (5)

伝達された音声情報を出力するスピーカと、音声を集音して音声信号を出力する第1のマイクロホンと、スピーカからの距離が第1のマイクロホンより遠い位置に配置され、音声を集音して音声信号を出力する第2のマイクロホンと、前記第1,第2のマイクロホンが出力する各音声信号を信号処理して伝達する信号処理部とを備え、
前記信号処理部は、
第1のマイクロホンが出力する音声信号をA/D変換する第1のA/D変換手段と、
第1,第2のマイクロホンとスピーカとの各距離の差に相当する第1の周波数の音波の伝達時間を遅延時間として、第1のA/D変換手段が第1のマイクロホンからの音声信号をA/D変換したタイミングから前記遅延時間経過したときに第2のマイクロホンからの音声信号をA/D変換する第2のA/D変換手段と、
第1,第2のマイクロホンのいずれか一方で集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、一方のマイクロホンが出力する音声信号をデジタル信号に変換するA/D変換手段の出力に基づいて、当該A/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで一方のマイクロホンから出力される音声信号を推測する推測手段と、
スピーカからの音声に対する前記第1,第2のマイクロホンの各出力レベルを第1,第2の周波数を各々含む周波数帯域毎に一致させる処理を、前記一方のA/D変換手段および推測手段の各出力と前記他方のA/D変換手段の出力との少なくとも一方に施すレベル調整手段と、
レベル調整手段を通過した第1,第2のマイクロホンの音声信号の差を出力する演算手段とを具備する
ことを特徴とする通話装置。
A speaker that outputs the transmitted audio information, a first microphone that collects audio and outputs an audio signal, and a distance from the speaker that is farther than the first microphone, collects audio A second microphone that outputs an audio signal; and a signal processing unit that processes and transmits each audio signal output by the first and second microphones;
The signal processing unit
First A / D conversion means for A / D converting an audio signal output from the first microphone;
The first A / D conversion means converts the sound signal from the first microphone using the transmission time of the sound wave of the first frequency corresponding to the difference in distance between the first and second microphones and the speaker as a delay time. Second A / D conversion means for A / D converting an audio signal from the second microphone when the delay time has elapsed from the timing of A / D conversion;
The phase difference of the second frequency component with respect to the first frequency component of the audio signal collected by one of the first and second microphones is used as a shift time, and the audio signal output from one microphone is a digital signal. An estimation means for estimating an audio signal output from one microphone at a timing shifted from the timing at which the A / D conversion means performs A / D conversion based on the output of the A / D conversion means for converting to ,
A process of matching the output levels of the first and second microphones with respect to the sound from the speaker for each frequency band including the first and second frequencies, respectively, in each of the one A / D conversion means and the estimation means Level adjusting means applied to at least one of the output and the output of the other A / D converting means;
And a computing unit that outputs a difference between the audio signals of the first and second microphones that have passed through the level adjusting unit.
前記推測手段は、第2のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第2のA/D変換手段の出力に基づいて、第2のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第2のマイクロホンから出力される音声信号を推測することを特徴とする請求項1記載の通話装置。   The estimation means uses the phase difference of the second frequency component relative to the first frequency component of the audio signal collected by the second microphone as a shift time, and based on the output of the second A / D conversion means 2. The communication apparatus according to claim 1, wherein a voice signal output from the second microphone is estimated at a timing shifted by the shift time from a timing at which the second A / D conversion means performs A / D conversion. 前記推測手段は、第1のマイクロホンで集音した音声信号の第1の周波数の成分に対する第2の周波数の成分の位相差をずれ時間とし、第1のA/D変換手段の出力に基づいて、第1のA/D変換手段がA/D変換するタイミングから前記ずれ時間ずれたタイミングで第1のマイクロホンから出力される音声信号を推測することを特徴とする請求項1記載の通話装置。   The estimation means uses the phase difference of the second frequency component with respect to the first frequency component of the audio signal collected by the first microphone as a shift time, and based on the output of the first A / D conversion means 2. The communication apparatus according to claim 1, wherein a voice signal output from the first microphone is estimated at a timing shifted by the shift time from a timing at which the first A / D conversion means performs A / D conversion. 前記推測手段は、一方のA/D変換手段が連続して出力した2つのデジタル値を結ぶ直線に沿って音声信号が推移していると近似し、当該直線に基づいて前記推測動作を行うことを特徴とする請求項1乃至3いずれか記載の通話装置。   The estimation means approximates that the audio signal is moving along a straight line connecting two digital values continuously output from one A / D conversion means, and performs the estimation operation based on the straight line. The communication device according to any one of claims 1 to 3. 前記一方のA/D変換手段の出力から第1の周波数を含む周波数帯域を通過させ、さらに前記推測手段の出力から第2の周波数を含む周波数帯域を通過させる第1のフィルタ手段と、前記他方のA/D変換手段の出力を前記周波数帯域毎に分離して通過させる第2のフィルタ手段とを備え、前記演算手段は、第1,第2のフィルタ手段およびレベル調整手段を通過した第1,第2のマイクロホンの音声信号の前記周波数帯域毎の差を加算して出力することを特徴とする請求項1乃至4いずれか記載の通話装置。   A first filter means for passing a frequency band including a first frequency from the output of the one A / D conversion means, and further allowing a frequency band including a second frequency to be passed from the output of the estimation means; And a second filter means for separating and passing the output of the A / D conversion means for each frequency band, and the computing means passes through the first and second filter means and the level adjusting means. 5. The call device according to claim 1, wherein a difference for each frequency band of the audio signal of the second microphone is added and output.
JP2006326212A 2006-12-01 2006-12-01 Telephone device Expired - Fee Related JP3976078B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006326212A JP3976078B1 (en) 2006-12-01 2006-12-01 Telephone device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006326212A JP3976078B1 (en) 2006-12-01 2006-12-01 Telephone device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006316223A Division JP4432959B2 (en) 2006-11-22 2006-11-22 Telephone device

Publications (2)

Publication Number Publication Date
JP3976078B1 true JP3976078B1 (en) 2007-09-12
JP2008131625A JP2008131625A (en) 2008-06-05

Family

ID=38556273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006326212A Expired - Fee Related JP3976078B1 (en) 2006-12-01 2006-12-01 Telephone device

Country Status (1)

Country Link
JP (1) JP3976078B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5141722B2 (en) * 2010-06-18 2013-02-13 株式会社デンソー Fuel pressure waveform acquisition device

Also Published As

Publication number Publication date
JP2008131625A (en) 2008-06-05

Similar Documents

Publication Publication Date Title
CN102934464B (en) Microphone unit and be provided with the acoustic input dephonoprojectoscope of this microphone unit
KR100975262B1 (en) Voice information processing device, and wiring system using the same device
US20200359139A1 (en) Method of operating a hearing aid system and a hearing aid system
US20140226836A1 (en) Voice input device and noise suppression method
JP4793207B2 (en) Microphone device and acoustic device
JP2008135864A (en) Speech communication device
JP4893230B2 (en) Telephone device
JP3976078B1 (en) Telephone device
JP2008301129A (en) Intercommunication device
JP4432959B2 (en) Telephone device
JP3976077B1 (en) Telephone device
JP2008022515A (en) Speech apparatus
JP3976079B1 (en) Telephone device
JP3976075B2 (en) Intercom device
JP4966098B2 (en) Telephone device
JP4862611B2 (en) Telephone device
JP2008131508A (en) Speech communication device
JP2008294998A (en) Speaking device
JP4989372B2 (en) Telephone device
JP3976076B1 (en) Telephone device
JP2009177747A (en) Speech communication device
JP2009055483A (en) Intercom device
JP2008301133A (en) Intercommunication device
JP2008294996A (en) Talking device
JP2008135860A (en) Speech communication device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100629

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110629

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120629

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130629

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees