以下、本発明の実施の形態を図面に基づいて説明する。
(実施形態1)
本実施形態の通話装置Aは図2〜図4に示され、後面に開口を形成したボディA10と、ボディA10の開口に覆設したカバーA11とでハウジングA1を構成し、ハウジングA1内に、スピーカSP、マイクロホン基板MB1、通話スイッチSW1、音声処理部10を備える。
音声処理部10は、図4に示すように、通信部10a、エコーキャンセル部10b,10c、増幅部10d、信号処理部10eを備えたICで構成され、ハウジングA1内に配置される。他の部屋等に設置されている通話装置Aから情報線Lsを介して送信された音声信号は、通信部10aで受信され、エコーキャンセル部10bを介して増幅部10dで増幅された後、スピーカSPから出力される。また、通話スイッチSW1を操作することで通話可能状態となり、マイクロホン基板MB1上のマイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)から入力された各音声信号は信号処理部10eで後述する信号処理を施された後、エコーキャンセル部10cを通過し、通信部10aから情報線Lsを介して他の部屋等に設置されている通話装置Aへ送信される。すなわち、部屋間で双方向の通話が可能なインターホンとして機能するものである。なお、通話装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。
スピーカSPは、図2に示すように、冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成されて一端を開口した円筒状のヨーク20を具備し、ヨーク20の開口端から外側に向かって円形の支持体21が延設されている。
ヨーク20の筒内にはネオジウムで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の縁端面に固定されている。
振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、ボイスコイル25がヨーク20の開口端に位置するように設けられており、ヨーク20の開口端近傍を前後方向に自在に移動する。
ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。
そして、スピーカSPの振動板23が対向するハウジングA1の前面内側には、リブ11が形成されており、スピーカSPの円形の支持体21の外周端部から前面側に突出した凸部21aの端面がリブ11に当接し、振動板23がハウジングA1の前面に内側から対向する状態でスピーカSPが固定される。
ハウジングA1内にスピーカSPが固定されると、ハウジングA1の前面内側とスピーカSPの表面側(振動板23側)とで囲まれた空間である前気室Bf、ハウジングA1の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。前気室Bfは、ハウジングA1の前面に複数設けた音孔12を介して外部に連通している。後気室Brは、スピーカSPの支持体21の端部とハウジングA1の内面のリブ11とが密着することで、前気室Bfとは絶縁した(連通していない)空間となり、さらにカバーA11がボディA10の後面開口に密着することで、外部とも絶縁した密閉された空間となっている。
次に、マイクロホン基板MB1は、図5に示すように、マイクロホンのベアチップBC1とICKa1との対、マイクロホンのベアチップBC2とICKa2との対をモジュール基板2の一面2aに各々実装し、ベアチップBC1、ICKa1、モジュール基板2上の配線パターン(図示無し)の各間、およびベアチップBC2、ICKa2、モジュール基板2上の配線パターン(図示無し)の各間をワイヤWで各々接続(ワイヤボンティング)した後、ベアチップBC1とICKa1の対を覆うようにシールドケースSC1を実装し、ベアチップBC2とICKa2の対を覆うように、シールドケースSC2を実装することで、ベアチップBC1、ICKa1、シールドケースSC1で構成されるマイクロホンM1、ベアチップBC2、ICKa2、シールドケースSC2で構成されるマイクロホンM2を備えている。
ベアチップBC(ベアチップBC1またはBC2)は、図6に示すように、シリコン基板1bに穿設した孔1cを塞ぐようにシリコン基板1bの一面側にSi薄膜1dが形成され、このSi薄膜1dとの間にエアーギャップ1eを介して電極1fが形成され、さらに音声信号を出力するパッド1gが設けられており、コンデンサ型のシリコンマイクロホンを構成している。そして、外部からの音響信号がSi薄膜1dを振動させることで、Si薄膜1dと電極1fとの間の静電容量が変化して電荷量が変化し、この電荷量の変化に伴ってパッド1g,1gから音響信号に応じた電流が流れる。このベアチップBCは、シリコン基板1bをモジュール基板2上にダイボンディングし、特にベアチップBC2のSi薄膜1dは、モジュール基板2に穿設した音孔F2に対向している。
そして、マイクロホンM1は、音孔F1を穿設したシールドケースSC1の底面側を集音面とし、マイクロホンM2は、音孔F2を穿設したモジュール基板2への実装面側を集音面として、互いに逆方向となるモジュール基板2の両面方向に集音面を有するものになる。このように構成されたマイクロホン基板MB1は、モジュール基板2の一面2aにマイクロホンM1,M2の両方を実装しているので、マイクロホン基板MB1の厚さを薄くできる。
図7(a)は、マイクロホン基板MB1を、モジュール基板2の一面2a側から見た平面図であり、モジュール基板2は、マイクロホンM1を配置する矩形部2fと、マイクロホンM2を配置する矩形部2gと、矩形部2f,2g間を連結する連結部2hとで構成され、矩形部2gは矩形部2fより大きく形成される。そして、矩形部2gの縁部に沿って、負電源パッドP1,正電源パッドP2,出力1パッドP3,出力2パッドP4が設けられている。
そして、図7(b)に示すように、負電源パッドP1には外部から供給される電源電圧の負側、正電源パッドP2には電源電圧の正側が接続されて、モジュール基板2上の配線パターンを介してマイクロホンM1,M2に電源を供給している。また、出力1パッドP3からは、マイクロホンM1が集音した音声信号がモジュール基板2上の配線パターンを介して出力され、出力2パッドP4からは、マイクロホンM2が集音した音声信号がモジュール基板2上の配線パターンを介して出力される。なお、出力パッドP3,P4から出力される音声信号のグランドは、負電源パッドP1で兼用される。
このように、マイクロホンM1,M2の電源を共通の負電源パッドP1、正電源パッドP2から供給し、さらにマイクロホンM1,M2の各出力のグランドを負電源パッドP1で兼用することで、パッドの数を減らすことができ、構成が簡単になる。
次に、マイクロホン基板MB1の動作について説明する。
まず、集音した音響信号に応じてベアチップBC1,BC2から流れる各電流は、ICKa1,Ka2によってインピーダンス変換されるとともに電圧信号に変換され、音声信号として出力1パッドP3、出力2パッドP4から各々出力される。
ICKa(ICKa1またはKa2)は、図8の回路構成を備えており、電源パッドP1,P2から供給される電源電圧+V(例えば5V)を定電圧Vr(例えば12V)に変換するチップICからなる定電圧回路Kbを備えており、抵抗R11とベアチップBCとの直列回路に定電圧Vrが印加され、抵抗R11とベアチップBCとの接続中点はコンデンサC11を介してジャンクション型のJ−FET素子S11のゲート端子に接続される。J−FET素子S11のドレイン端子は動作電源+Vに接続され、ソース端子は抵抗R12を介して電源電圧の負側に接続される。ここで、J−FET素子S11は電気インピーダンスの変換用であり、このJ−FET素子S11のソース端子の電圧が音声信号として出力される。なお、ICKaのインピーダンスの変換回路は、上記構成に限定されるものではなく、例えばオペアンプによるソースフォロワ回路の機能を有する回路であってもよく、または必要に応じてICKa内に音声信号の増幅回路を設けてもよい。
そして、マイクロホン基板MB1は、上記のようにモジュール基板2上の配線パターンを介して信号伝達、給電を行うことで、信号線、給電線を効率よく構成できるとともに、ハウジングA1の外面に取付可能となる。本実施形態では、モジュール基板2の一面2aをハウジングA1の前面外側に沿って配置し、マイクロホンM1はハウジングA1前面の開口13を挿通して集音面を前気室Bfに向けており、シールドケースSC1の底面に穿設したマイクロホンM1の音孔F1はスピーカSPの振動板23に対向し、音孔F1を介してスピーカSPが発する音声を確実に集音することができる。また、マイクロホンM2は、ハウジングA1の前面に設けた凹部14に嵌合し、モジュール基板2に穿設したマイクロホンM2の音孔F2はスピーカSPの出力方向に向かってハウジングA1の外部(前方)に面しているので、音孔F2を介して伝達される、通話装置Aの前方に位置する話者からの音声を確実に集音することができる。なお、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。
また、スピーカSPの裏面が面する後気室Brは、ハウジングA1内で密閉されるので、スピーカSPの裏面から放射される音声は後気室Brから漏れ難くなり、スピーカSPとマイクロホンM2との音響結合を低減させている。さらにスピーカSPの裏面(振動板23の裏面)から放射される音は、スピーカSPの表面(振動板23の表面)から放射される音と位相が反転しており、このスピーカSPの裏面から放射される音が前方に回り込むと、スピーカSPの表面から放射される音と互いに打ち消しあって、スピーカSPの放射音圧が低下し、前方にいる話者にはスピーカSPが発する音声が聞こえ難いものとなるが、上記のようにスピーカSPの裏面から放射される音はハウジングA1の外部に漏れ難いので、上記回り込みによるスピーカSPの放射音圧の低下を防いでいる。
また、マイクロホンM2を収納した凹部14は後気室Brと連通していない分離された空間であるので、マイクロホンM2はスピーカSPの発する音声をさらに集音し難くなり、スピーカSPとマイクロホンM2との音響結合をさらに低減させている。すなわち、上記構成によって、スピーカSPが発する音声と話者の発する音声とをマイクロホンM1,M2で分離して集音しているのである。
また、マイクロホン基板MB1をハウジングA1内に配置すると前気室Bfと後気室Brとの間の空間的な絶縁を維持することが困難であるが、本実施形態のようにマイクロホン基板MB1をハウジングA1の外面に取り付けることで、前気室Bfと後気室Brとの間の空間的な絶縁を維持することができる。
そして、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。
まず、音声処理部10に収納されている信号処理部10eは、図1に示すように、1つのA/D変換回路301と、複数のA/D変換回路311〜31nと、バンドパスフィルタ321〜32nと、バンドパスフィルタ331〜33nと、減衰回路341〜34nと、演算回路35aと、タイミング制御部36とで構成される。A/D変換回路301、311〜31nの各動作は、タイミング制御部36によって制御されており、以下、各回路の動作について説明する。図9〜図12は、スピーカSPが発する音声をマイクロホンM1,M2が集音したときの信号処理部10eの各部における信号波形を示す。
まず、マイクロホンM1は、集音面がスピーカSPに向かって実装されており、通話装置Aの前方に位置する話者H(図1参照)が発する音声(送話音声)よりも、スピーカSPが発する音声を感度よく集音する。一方、マイクロホンM2は、集音面が前方に向かって配置されており、スピーカSPが発する音声よりも、通話装置Aの前方に位置する話者Hが発する音声を感度よく集音する。
すなわち、マイクロホンM1が出力する音声信号Y11は、スピーカSPが発する音声に対しては感度が高く振幅が大きくなるが、話者Hが発する音声に対しては感度が低く振幅が小さくなる。また、マイクロホンM2が出力する音声信号Y21は、話者Hが発する音声に対しては感度が高く振幅が大きくなるが、スピーカSPが発する音声に対しては感度が低く振幅が小さくなる。
さらに、送話時には、話者Hが発する音声とスピーカSPが発する音声との両方がマイクロホンM1,M2にて集音されるが、スピーカSPの中心から各マイクロホンM1,M2の中心までの距離X1,X2はX1<X2であるので、スピーカSPからの音声に対しては、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に位相差が生じ、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Vs](Vsは音速)だけ、マイクロホンM1の音声信号Y11に比べてマイクロホンM2の音声信号Y21の位相が遅れている。この遅延時間Tdは、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。
また、スピーカSPからの音声に対する音声信号Y11,Y21の振幅も上記同様に、理想的な条件下では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。
一方、マイクロホンM1,M2と話者Hとの各距離は等しいとみなせるので、話者Hが発する音声に対しては、両マイクロホンM1,M2の各音声信号Y11,Y21は、略同一位相となる。
而して、本実施形態では、マイクロホンM1,M2からの音声信号を周波数帯域毎に分割して、マイクロホンM1の音声信号Y11とマイクロホンM2の音声信号Y21との間に生じる位相差および振幅差を周波数帯域毎に最適に調整している。なお、図9(a)〜(h)は、周波数帯域の分割数n=2とした場合の動作について示している。
まず、A/D変換回路301は、マイクロホンM1のアナログの音声信号Y11をデジタル信号に変換し、A/D変換回路311〜31nは、マイクロホンM2のアナログの音声信号Y21をデジタル信号に変換する。A/D変換回路301のA/D変換動作は、タイミング制御部36が出力する制御信号Si11の立ち上がりに同期して行われ、A/D変換回路311〜31nのA/D変換動作は、タイミング制御部36が出力する制御信号Si21〜Si2nの立ち上がりに同期して行われており、本実施形態の制御信号Si11、Si21〜Si2nの周波数は8〜16KHzに設定されて、各A/D変換回路における変換周期T1=62.5〜125μsecとしている(図9(c)〜(e))。
また、スピーカSPが発する音声の周波数帯域をG1〜Gnにn分割した場合に、スピーカSPが発する音声に対して、最も低い周波数帯域G1ではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td11だけ遅れ、次に低い周波数帯域G2ではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td12だけ遅れ、………、n番目に低い周波数帯域GnではマイクロホンM2の音声信号Y21の位相がマイクロホンM1の音声信号Y11に比べて遅延時間Td1nだけ遅れる。なお、Td11>Td12>………>Td1nとなる。
したがって、制御信号Si21は制御信号Si11に対して遅延時間Td11だけ遅く発生させ、制御信号Si22は制御信号Si11に対して遅延時間Td12だけ遅く発生させ、………、制御信号Si2nは制御信号Si11に対して遅延時間Td1nだけ遅く発生させるようにタイミング制御部36の動作を予め設定しておく(図9(a)(b)参照)。すなわち、A/D変換回路311は、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換するタイミングから遅延時間Td11後のタイミングでマイクロホンM2からの音声信号をA/D変換し、A/D変換回路312は、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換するタイミングから遅延時間Td12後のタイミングでマイクロホンM2からの音声信号をA/D変換し、………、A/D変換回路31nは、A/D変換回路301がマイクロホンM1からの音声信号をA/D変換回路するタイミングから遅延時間Td1n後のタイミングでマイクロホンM2からの音声信号をA/D変換することで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。
また、A/D変換回路301、A/D変換回路311〜31nは、ΣΔ方式でA/D変換を行っており、ΣΔ方式の特徴であるノイズのみの周波数伝達特性を変化させてノイズ成分を信号成分より高い周波数領域に分布させるノイズシェーピングによって高いS/N比でのA/D変換が可能となり、さらには殆どの処理がデジタルで行われることによってIC化が容易となる。なお、A/D変換の分解能は、16bit,14bit,12bitのいずれかを用いる。
そして、A/D変換回路301からは、マイクロホンM1が出力する音声信号をA/D変換したデジタル値a11,b11,c11,d11,e11,………で構成される音声信号Y12が出力される(図9(f)参照)。また、A/D変換回路311からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a21,b21,c21,d21,e21,………で構成される音声信号Y221が出力され(図9(h)参照)、A/D変換回路312からは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a22,b22,c22,d22,e22,………で構成される音声信号Y222が出力され(図9(g)参照)、………、A/D変換回路31nからは、マイクロホンM2が出力する音声信号をA/D変換したデジタル値a2n,b2n,c2n,d2n,e2n,………で構成される音声信号Y22nが出力されており、マイクロホンM2の音声信号は、周波数帯域G1〜Gnに各々対応して位相調整されたn系統の音声信号Y221〜Y22nとなる。
このようにマイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相が周波数帯域G1〜Gn毎に一致するタイミングでA/D変換することで、本実施形態のように音声信号を低速(8〜16KHz)でA/D変換した場合でも、スピーカSPが発する音声に対するマイクロホンM1,M2の各音声信号間の上記遅延時間Td1〜Tdnは精度よく補償され、高速のA/D変換機能(例えば1MHz)を備える必要がなく、低コスト化を図ることができる。なお、以降の処理は、マイクロホンM1,M2の各音声信号のデジタル値をメモリに格納してデジタル処理されるのであるが、説明のため図10〜図12の各波形はアナログ波形で示している。
次に、A/D変換回路301から出力される音声信号Y12は、バンドパスフィルタ321によって周波数帯域G1の成分が分離され、バンドパスフィルタ322によって周波数帯域G2の成分が分離され、………、バンドパスフィルタ32nによって周波数帯域Gnの成分が分離されて、n系統に振り分けられる。また、A/D変換回路311から出力される音声信号Y221は、バンドパスフィルタ331によって周波数帯域G1の成分が通過し、A/D変換回路312から出力される音声信号Y222は、バンドパスフィルタ332によって周波数帯域G2の成分が通過し、………、A/D変換回路31nから出力される音声信号Y22nは、バンドパスフィルタ33nによって周波数帯域Gnの成分が通過する。そして、バンドパスフィルタ321,331が出力する周波数帯域G1の音声信号Y131,Y231は、A/D変換回路301とA/D変換回路311とを互いに上記遅延時間Td11ずらして動作させることで同一位相となっており、バンドパスフィルタ322,332が出力する周波数帯域G2の音声信号Y132,Y232は、A/D変換回路301とA/D変換回路312とを互いに上記遅延時間Td12ずらして動作させることで同一位相となっており、………、バンドパスフィルタ32n,33nが出力する周波数帯域Gnの音声信号Y13n,Y23nは、A/D変換回路301とA/D変換回路31nとを互いに上記遅延時間Td1nずらして動作させることで同一位相となっている(図10参照)。
次に、減衰回路341は、バンドパスフィルタ321を通過したマイクロホンM1の音声信号Y131を減衰させて音声信号Y141を生成し、減衰回路342は、バンドパスフィルタ322を通過したマイクロホンM1の音声信号Y132を減衰させて音声信号Y142を生成し、………、減衰回路34nは、バンドパスフィルタ32nを通過したマイクロホンM1の音声信号Y13nを減衰させて音声信号Y14nを生成し(図11参照)、各周波数帯域G1〜Gn毎に、両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)や、マイクロホンM1,M2の感度差に相当するレベル調整を行ない、スピーカSPが発する音声に対して各周波数帯域G1〜Gnにおける両マイクロホンM1,M2の出力レベルを一致させる。
次に、演算回路35aは、マイクロホンM2の音声信号Y231からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1においてスピーカSPからの音声成分が打ち消された音声信号を生成し、マイクロホンM2の音声信号Y232からマイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y23nからマイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し(図12(a)参照)、さらに各周波数帯域G1〜Gnでの前記減算結果を全て加算しており、スピーカSPからの音声成分が各周波数帯域G1〜Gn毎に打ち消された音声信号Yaが生成される(図12(b)参照)。なお、本実施形態では、演算回路35aにおいてマイクロホンM2の音声信号からマイクロホンM1の音声信号を減算しているが、マイクロホンM1の音声信号からマイクロホンM2の音声信号を減算して、音声信号Yaを生成してもよい。
一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、集音面を話者Hに向かって配置したマイクロホンM2の音声信号Y21の振幅が、集音面をスピーカSPに向かって配置したマイクロホンM1の音声信号Y11の振幅よりも大きくなる。さらに、マイクロホンM1からの信号は減衰回路341〜34nで減衰するので、音声信号Y231〜23nに含まれる話者Hからの音声成分は、音声信号Y141〜14nに含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、音声信号Y141〜14nに含まれる話者Hからの音声成分と、音声信号Y231〜Y23nに含まれる話者Hからの音声成分との振幅差は大きくなり、演算回路35aで上記減算処理を施しても、音声信号Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。
以上のようにして信号処理部10eが出力する音声信号YaではスピーカSPからの音声成分が周波数帯域G1〜Gn毎に低減され、一方、通話装置A前方の話者HからマイクロホンM1,M2に向って発した音声成分は残っており、音声信号Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が広い周波数帯域に亘って大きくなり、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングの発生防止効果が向上している。
次に、本実施形態のようにマイクロホンの音声信号を周波数帯域毎に分割して、マイクロホンが拾うスピーカからの音声を低減させる処理について、数式を用いて説明する。
まず、集音面をスピーカSPに向かって配置したマイクロホンM1、集音面を話者Hに向かって配置したマイクロホンM2が、スピーカSPからの音声を各々集音した場合に、マイクロホンM1,M2の各音声信号間に発生する位相差、振幅差が周波数に依存しないとすると、マイクロホンM1の集音特性をQ1(ω)、マイクロホンM2の集音特性をQ2’(ω)は、
となる。ここで、α、α1、βは定数であり、[数1][数2]の各第1項はスピーカSPからの音声(スピーカ音)による信号であり、各第2項は話者Hからの音声による信号である。
そして、位相差、振幅差の周波数依存性を考慮せずに、減衰率aをQ1(ω)に乗じた値からQ2’(ω)を減算してスピーカSPからの音声を低減させるキャンセル処理を行うと、キャンセル後の信号Ycan’は、
となり、スピーカSPからの信号はキャンセルされ、話者Hからの信号だけが残る。
しかしながら、実際には、マイクロホンM1,M2の各音声信号間に発生する位相差、振幅差が周波数に依存しており、この周波数依存性を考慮したマイクロホンM2の集音特性Q2(ω)は、
となる。
そして、位相差、振幅差の周波数依存性を考慮して、減衰率aをQ1(ω)に乗じた値からQ2(ω)を減算してスピーカSPからの音声を低減させるキャンセル処理を行うと、キャンセル後の信号Ycanは、
となる。ここで、[数5]の第1項はスピーカSPからの音声の残信号であり、第1項内のθ(ω)は、スピーカSPからの音声をマイクロホンM1,M2で集音した場合の位相差(マイクロホンM2−マイクロホンM1)であり、以後スピーカ音の位相差θ(ω)と称する。また第2項は話者Hからの音声による信号である。
次に、スピーカSPから音声の残信号である[数5]の第1項内の{α1(ω)exp(−jθ(ω))−α1}を、周波数帯域毎に展開した{α1(ω)exp(−jθk(ω))−αk}に注目すると、問題となっているのはスピーカSPからの信号の振幅がα1からどの程度減衰しているかであるから、ここでα1(ω),αkをαで割った結果が各々a(ω),akであるとすると、[数6]のようになる。
ここで、a(ω)は、スピーカSPからの音声をマイクロホンM1,M2で集音した各音声信号の振幅比(マイクロホンM2/マイクロホンM1)であり、以後スピーカ音の振幅比a(ω)と称する。そして、[数6]内の|a(ω)exp{−j(θk(ω)―θ)}−ak|をフェーザベクトルで図示すると、図13のベクトルVeのようになる。
次に、実際に測定したスピーカ音の振幅比a(ω)と、スピーカ音の位相差θ(ω)を、図14(a)(b)に示す。スピーカ音の振幅比a(ω)、スピーカ音の位相差θ(ω)ともに、周波数が高くなるにしたがって増加する傾向にある。そこで、スピーカ音の振幅比a(ω)が、周波数400Hzから4000Hzにおいて、−20dB(0.1)から−16dB(0.16)まで線形に推移し、スピーカ音の位相差θ(ω)が、周波数400Hzから4000Hzにおいて、−5°から25°まで線形に推移したとすると、[数7]、[数8]の近似式が導出される。
下記[数9]は、スピーカ音のキャンセル量Zmを導出する数式であり、
この[数9]に上記[数7]、[数8]を代入した数式を用いて、本実施形態の周波数分割を行わずに、スピーカ音のキャンセル量が1つの周波数1KHzまたは3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の各理論値Yt1,Yt2は図15(a)に示され、この場合のスピーカ音のキャンセル量の各実測値Ys1,Ys2は図15(b)に示され、周波数1KHzまたは3KHzでキャンセル量が各々ピークとなる特性で表されており、各特性においてスピーカ音のキャンセル効果が十分得られる周波数範囲は、周波数1KHzまたは3KHzを中心とした比較的狭い範囲に限られる。なお、スピーカ音のキャンセル量とは、話者Hからの音声を集音することを目的とするマイクロホンM2に回りこんだスピーカ音の低減量とする。
一方、上記[数9]に上記[数7]、[数8]を代入した数式を用いて、本実施形態の周波数分割を行い、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割した場合のスピーカ音のキャンセル量の理論値Yt11は図16(a)に示され、本実施形態の信号処理部10eを用いて、上記2KHz以下の周波数帯域G1、および上記2KHz以上の周波数帯域G2で各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys11は図16(b)に示され、周波数1KHzと3KHzの両方でキャンセル量がピークとなる特性を有しており、広い周波数帯域に亘ってスピーカ音のキャンセル効果があることが分かる。
なお、図16(a)に示すスピーカ音のキャンセル量の理論値Yt11と、図16(b)に示すスピーカ音のキャンセル量の実測値Ys11とは、その曲線形状は略同様であり、キャンセル量の周波数特性が理論どおり改善されているが、キャンセル量の大きさが異なっている。これは、実測値の測定環境として、(1)実際に使用したマイクロホンM1,M2のS/N比が60dB程度であること、(2)暗騒音40dBA程度の場所でスピーカSPへ回り込む音の音圧が80dB程度であること、(3)実機上に種々のノイズがあること、(4)A/D変換の際の量子化ビットによる分解能の限界等があることが要因と考えられる。
そして、信号処理部10eが出力する音声信号Yaはエコーキャンセル部10cに出力され、エコーキャンセル部10b,10c(図4参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。
まず、エコーキャンセル部10cは、エコーキャンセル部10bの出力を参照信号として取り込み、信号処理部10eの出力に対して演算を施すことにより、スピーカSPからマイクロホンM1,M2に回り込んだ音声信号をさらにキャンセリングする。一方、エコーキャンセル部10bも、エコーキャンセル部10cの出力を参照信号として取り込み、通信部10aの出力に対して演算を施すことにより、通話先の相手側でのスピーカからマイクロホンへの音声信号の回り込みをキャンセリングする。
具体的には、エコーキャンセル部10b,10cは、スピーカSP−マイクロホンM1,M2−信号処理部10e−エコーキャンセル部10c−通信部10a−エコーキャンセル部10b−増幅部10d−スピーカSPで構成されるループ回路内に設けた可変損失手段(図示無し)での損失量を調節することにより、ループゲインが1以下となるようにしてハウリングを防止するのである。ここで、送話信号と受話信号とのうち信号レベルが小さいほうは重要ではないとみなし、信号レベルが小さいほうの伝送路に挿入された可変損失回路の伝送損失を大きくするようにしている。
また、マイクロホンM1,M2の数は各々1つに限定されるものではなく、マイクロホンM1,M2として複数のマイクロホンを各々備えてもよい。
なお、本実施形態では、マイクロホンM1側に1つのA/D変換回路を設け、マイクロホンM2側に複数のA/D変換回路を設けて、マイクロホンM1側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn後のタイミングで、マイクロホンM2側のA/D変換回路が各々A/D変換を行うことで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。しかし、この構成とは逆に、マイクロホンM1側に複数のA/D変換回路を設け、マイクロホンM2側に1つのA/D変換回路を設けて、マイクロホンM2側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn前のタイミングで、マイクロホンM1側のA/D変換回路が各々A/D変換を行い、これらのデジタル信号に上記フィルタ処理、演算処理を施すことでも同様の効果を得ることができる。
(実施形態2)
実施形態1の信号処理部10eにおいては、演算回路35aの前段にバンドパスフィルタ321〜32n、331〜33nを設けて周波数分割を行っているが、本実施形態ではフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができる信号処理部10eについて説明する。なお、実施形態1と同様の構成には同一の符号を付して説明は省略する。
まず、本実施形態の信号処理部10eは図17に示すように演算回路35bを備え、演算回路35bは、A/D変換回路301からの音声信号Y12が減衰回路341〜34nを各々介して音声信号Y141〜14nとして入力され、A/D変換回路311〜31nからの音声信号Y221〜22nが直接入力されている。すなわち、スピーカSPが発する音声に対して、実施形態1と同様にA/D変換回路301、311〜31nの各A/D変換タイミングを周波数帯域G1〜Gn毎に設定することで、マイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一位相とし、さらに減衰回路341〜34nによってマイクロホンM1,M2の各音声信号を周波数帯域G1〜Gn毎に同一振幅とした各信号が、バンドパスフィルタ321〜32n、331〜33n(図1参照)を介さずに、演算回路35bに入力されている。
演算回路35bは、マイクロホンM2の音声信号Y221からマイクロホンM1の音声信号Y141を減算することで、周波数帯域G1〜Gnに亘ってスピーカSPからの音声成分が低減された音声信号を生成するが、スピーカSPが発する音声に対する音声信号Y141,Y221は周波数帯域G1において位相、振幅が一致しており、特に周波数帯域G1のスピーカSPからの音声成分が打ち消された音声信号が生成される。同様に、マイクロホンM2の音声信号Y222から、マイクロホンM1の音声信号Y142を減算することで、周波数帯域G2においてスピーカSPからの音声成分が打ち消された音声信号を生成し、………、マイクロホンM2の音声信号Y22nから、マイクロホンM1の音声信号Y14nを減算することで、周波数帯域GnにおいてスピーカSPからの音声成分が打ち消された音声信号を生成し、さらに各周波数帯域G1〜Gnでの減算結果を全て加算し、当該加算結果を周波数帯域の分割数nで割って平均化することで、スピーカSPからの音声成分が各周波数帯域毎G1〜Gn毎に打ち消された音声信号Yaが生成される。
上記平均化処理によって、バンドパスフィルタ321〜32n、331〜33nのフィルタ手段を設けずに実施形態1の周波数分割と略同様の効果を得ることができるのであるが、この平均化処理について、以下詳述する。
平均化処理とは、スピーカSPが発する音声に対して、周波数帯域G1〜Gn毎に位相、振幅を一致させたマイクロホンM1,M2の各音声信号の差分を、各周波数帯域G1〜Gnに分離するフィルタ手段を通さずに単純に加算し、周波数帯域の分割数nで割って平均化する処理であり、フィルタ手段が不要となって、回路規模の縮小、コスト低減、小型化を図ることができる。下記[数10]は、上記平均化処理によるスピーカ音のキャンセル量Zmaveを導出する数式であり、
ここで、Zmkは、周波数帯域Gkで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、具体的には、Zm1は、周波数帯域G1で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、Zm2は、周波数帯域G2で位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量であり、………、Zmnは、周波数帯域Gnで位相、振幅を一致させたマイクロホンM1,M2の音声信号の上記減算処理によるスピーカ音のキャンセル量である。
例えば、図18に示すようにスピーカ音のキャンセル量が周波数1KHz、3KHzで各々最適となるように調整した場合のスピーカ音のキャンセル量の実測値Ys1,Ys2を加算し、当該加算結果を周波数帯域の分割数n=2で割ることで、本実施形態の平均化処理によるキャンセル量の理論値Yt21が求められる。
また、図19は、スピーカ音のキャンセル量を周波数1KHzで最適化した2KHz以下の周波数帯域G1、スピーカ音のキャンセル量を周波数3KHzで最適化した2KHz以上の周波数帯域G2の2つに分割して、上記平均化処理を行った場合のスピーカ音のキャンセル量の実測値Ys21、および実測値Ys21の近似曲線Ys22を示しており、極端にキャンセル量の高い周波数帯域はないが、広い周波数帯域でキャンセル量が平均化されており、広い周波数帯域に亘って十分なスピーカ音のキャンセル効果があることが分かる。
なお、本実施形態では、マイクロホンM1側に1つのA/D変換回路を設け、マイクロホンM2側に複数のA/D変換回路を設けて、マイクロホンM1側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn後のタイミングで、マイクロホンM2側のA/D変換回路が各々A/D変換を行うことで、マイクロホンM1の音声信号とマイクロホンM2の音声信号の各位相を周波数帯域G1〜Gn毎に一致させている。しかし、この構成とは逆に、マイクロホンM1側に複数のA/D変換回路を設け、マイクロホンM2側に1つのA/D変換回路を設けて、マイクロホンM2側のA/D変換回路がA/D変換を行うタイミングから周波数帯域G1〜Gn毎の遅延時間Td1〜Tdn前のタイミングで、マイクロホンM1側のA/D変換回路が各々A/D変換を行い、これらのデジタル信号に上記演算処理を施すことでも同様の効果を得ることができる。