JP2010081124A - Calibration method for intercom device - Google Patents
Calibration method for intercom device Download PDFInfo
- Publication number
- JP2010081124A JP2010081124A JP2008244971A JP2008244971A JP2010081124A JP 2010081124 A JP2010081124 A JP 2010081124A JP 2008244971 A JP2008244971 A JP 2008244971A JP 2008244971 A JP2008244971 A JP 2008244971A JP 2010081124 A JP2010081124 A JP 2010081124A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- speaker
- microphones
- coefficient
- delay time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、インターホン装置用キャリブレーション方法に関するものである。 The present invention relates to a calibration method for an intercom device.
従来、双方向の通話を行うインターホン装置があり、他の場所に設置されたインターホン装置からの音声を出力するスピーカや、他のインターホン装置へ伝達する音声を入力するマイクロホン等を備えている。 2. Description of the Related Art Conventionally, there is an interphone device that performs two-way communication, and includes a speaker that outputs sound from an interphone device installed in another place, a microphone that inputs sound transmitted to another interphone device, and the like.
そして、スピーカから発生した音声がマイクロホンに回り込むとハウリングが生じることになるから、様々なハウリング防止対策が採られている。例えば、スピーカと一対のマイクロホンとを備えて、両マイクロホンとスピーカとの距離の差に相当する音波の遅延時間だけスピーカに近いほうのマイクロホンの出力を遅延させる遅延回路と、スピーカからの音声に対する両マイクロホンの出力レベルを一致させるレベル調整増幅回路と、遅延回路とレベル調整増幅回路とを通った両マイクロホンの出力を両入力とする差動増幅回路とを設け、差動増幅回路の出力を送話信号とすることで、送話信号からスピーカ音をキャンセルしてハウリング防止を図るインターホン装置が提案された。 Since howling occurs when the sound generated from the speaker wraps around the microphone, various measures for preventing howling are taken. For example, a speaker and a pair of microphones are provided, a delay circuit that delays the output of a microphone closer to the speaker by a delay time of sound waves corresponding to the difference in distance between the two microphones and the speaker, and both of the sounds from the speaker. A level adjustment amplifier circuit that matches the output level of the microphone and a differential amplifier circuit that uses the outputs of both microphones that have passed through the delay circuit and the level adjustment amplifier circuit as both inputs are provided, and the output of the differential amplifier circuit is transmitted. An intercom device has been proposed that uses a signal to cancel speaker sound from a transmitted signal to prevent howling.
このインターホン装置では、両マイクロホンでスピーカからの音声を拾った後、遅延およびレベル調整を行なって両マイクロホンに入力されるスピーカからの音声成分を差動増幅回路で相殺することで、スピーカからの音声成分のみを除去して(キャンセル処理)、ハウリングを防止しようとしている(例えば、特許文献1参照)。 In this intercom device, after picking up the sound from the speakers with both microphones, delay and level adjustment are performed, and the sound components from the speakers that are input to both microphones are canceled by the differential amplifier circuit. Only the components are removed (cancellation process) to prevent howling (for example, see Patent Document 1).
このような複数のマイクロホンを持ったインターホン装置では、各マイクロホンの感度等をキャリブレーションして、スピーカ音のキャンセル効果を保障する必要があり、例えば実際に使用されるフィールドで定期的にキャリブレーションする方法(例えば、特許文献2参照)や、製造工程において複数のレンジを切り替えてキャリブレーションを行う方法(例えば、特許文献3参照)が提案されている。
しかしながら、上記特許文献2のように実際に使用されるフィールドで定期的にキャリブレーションする方法は、インターホン装置のような設備機器には適さず、また上記特許文献3のように製造工程において複数のレンジを切り替えてキャリブレーションを行う方法では、大掛かりな測定装置が必要となり、作業時間が長くなっていた。
However, the method of periodically calibrating in the field actually used as in the above-mentioned
而して、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置に対して、各マイクロホンのキャリブレーションを簡易に行う方法が求められている。 Thus, there is a need for a method for easily calibrating each microphone for an interphone device that prevents howling by canceling speaker sound from a transmission signal using a plurality of microphones.
本発明は、上記事由に鑑みてなされたものであり、その目的は、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができるインターホン装置用キャリブレーション方法を提供することにある。 The present invention has been made in view of the above reasons, and its purpose is to easily perform microphone calibration of an intercom device that prevents howling by canceling speaker sound from a transmission signal using a plurality of microphones. An object of the present invention is to provide a calibration method for an intercom device that can be performed.
請求項1の発明は、伝達された音声情報によって音声を発する発音体と、音声を集音して音声信号を出力する第1,第2のマイクロホンと、第1,第2のマイクロホンと発音体との各距離の差に相当する音波の伝達時間である遅延時間、および発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅比から算出される係数を用いた演算処理を、第1,第2のマイクロホンが出力する音声信号に対して施すことで、発音体が発した音をキャンセルした音声信号を生成する信号処理部と、信号処理部が演算処理に用いる係数を記憶した記憶部と、を具備したインターホン装置に対してキャリブレーションを行うインターホン装置用キャリブレーション方法であって、インターホン装置に発音体、第1,第2のマイクロホン、信号処理部、記憶部を組み込んだ状態で発音体を特定の周波数で駆動する駆動工程と、特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅に基づいて、前記振幅比のデータを導出する振幅比データ導出工程と、特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の位相に基づいて、前記遅延時間のデータを導出する遅延時間データ導出工程と、前記導出された遅延時間および前記振幅比の各データに基づいて、信号処理部が前記演算処理に用いる係数を算出する最適係数算出工程と、前記算出した係数を記憶部に格納する記憶工程と、を含むことを特徴とする。 According to the first aspect of the present invention, there is provided a sounding body that emits sound based on transmitted sound information, first and second microphones that collect sound and output a sound signal, and first and second microphones and sounding body. Calculation processing using a coefficient calculated from a delay time, which is a transmission time of a sound wave corresponding to a difference in distance from each other, and an amplitude ratio of each sound signal of the first and second microphones to sound from the sounding body. A signal processing unit that generates an audio signal in which the sound emitted by the sounding body is canceled by applying it to the audio signals output from the first and second microphones, and a coefficient used by the signal processing unit for arithmetic processing A calibration method for an intercom device that calibrates an intercom device including a storage unit, the intercom device having a sound generator, first and second microphones, and a signal A driving step of driving the sounding body at a specific frequency in a state where the processing unit and the storage unit are incorporated, and the amplitude of each sound signal of the first and second microphones with respect to the sound from the sounding body driven at the specific frequency Based on the amplitude ratio data deriving step for deriving the amplitude ratio data, and the delay based on the phases of the audio signals of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency. A delay time data deriving step for deriving time data; an optimum coefficient calculating step for calculating a coefficient used by the signal processing unit for the arithmetic processing based on each of the derived delay time and the amplitude ratio data; and A storage step of storing the calculated coefficient in the storage unit.
この発明によれば、インターホン装置は、発音体、第1,第2のマイクロホン、信号処理部が組み付けられた状態でキャリブレーションされており、インターホン装置に組み込まれた発音体が発する音を用いて、発音体が発した音のキャンセル処理を行う演算処理に用いる係数を算出するので、別途発音体を用意する必要がなく、キャリブレーション装置の構成を簡略化できる。すなわち、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができる
請求項2の発明は、請求項1において、前記駆動工程は、複数の周波数から順次選択される特定の周波数で前記発音体を駆動し、前記振幅比データ導出工程および遅延時間データ導出工程は、複数の周波数から順次選択される特定の周波数毎に前記振幅比および前記遅延時間の各データを導出することを特徴とする。
According to this invention, the intercom device is calibrated in a state where the sounding body, the first and second microphones, and the signal processing unit are assembled, and the sound generated by the sounding body incorporated in the interphone device is used. Since the coefficient used for the calculation process for canceling the sound emitted by the sounding body is calculated, it is not necessary to prepare a sounding body separately, and the configuration of the calibration apparatus can be simplified. That is, the microphone of the intercom device that prevents howling by canceling the speaker sound from the transmission signal using a plurality of microphones can be easily calibrated. The driving step drives the sounding body at a specific frequency sequentially selected from a plurality of frequencies, and the amplitude ratio data deriving step and the delay time data deriving step are performed for each specific frequency sequentially selected from the plurality of frequencies. Each data of the amplitude ratio and the delay time is derived.
この発明によれば、第1,第2のマイクロホンの音声信号が有する周波数特性を考慮して、各データを導出するので、キャリブレーションの精度が高くなる。 According to the present invention, since each data is derived in consideration of the frequency characteristics of the audio signals of the first and second microphones, the accuracy of calibration is increased.
請求項3の発明は、請求項2において、前記最適係数算出工程は、複数の周波数から順次選択される特定の周波数毎に導出された前記振幅比および前記遅延時間の各データに基づいて、前記特定の周波数毎に前記演算処理に用いる第1の係数を算出し、当該特定の周波数毎に算出した複数の第1の係数を平均化処理して前記演算処理に用いる第2の係数を算出し、前記記憶工程は、第2の係数を前記記憶部に格納することを特徴とする。 According to a third aspect of the present invention, in the second aspect, the optimum coefficient calculating step is based on the amplitude ratio and the delay time data derived for each specific frequency sequentially selected from a plurality of frequencies. A first coefficient used for the calculation process is calculated for each specific frequency, and a plurality of first coefficients calculated for the specific frequency are averaged to calculate a second coefficient used for the calculation process. The storing step stores the second coefficient in the storage unit.
この発明によれば、また、第1の係数を平均化処理した第2の係数のみを算出するので、キャリブレーションに要する時間を短縮できる。 According to this invention, since only the second coefficient obtained by averaging the first coefficient is calculated, the time required for calibration can be shortened.
請求項4の発明は、請求項3において、前記記憶工程は、第2の係数が所定の範囲内であれば、当該第2の係数を記憶部に格納し、第2の係数が所定の範囲外であれば、当該第2の係数を記憶部に格納しないことを特徴とする。 According to a fourth aspect of the present invention, in the third aspect, if the second coefficient is within a predetermined range, the storing step stores the second coefficient in the storage unit, and the second coefficient is within the predetermined range. If it is outside, the second coefficient is not stored in the storage unit.
この発明によれば、不適正な値である第2の係数は記憶部に格納されないので、インターホン装置の信頼性を確保することができる。 According to the present invention, since the second coefficient that is an inappropriate value is not stored in the storage unit, it is possible to ensure the reliability of the intercom apparatus.
請求項5の発明は、請求項1乃至4いずれかにおいて、前記信号処理部は、第1,第2のマイクロホンの各音声信号をA/D変換するA/D変換手段を備え、前記記憶部はA/D変換手段のサンプリング時間を予め記憶しており、前記最適係数算出工程は、前記遅延時間および前記振幅比の各データに加えて記憶部から読み出したサンプリング時間に基づいて、前記演算処理に用いる係数を算出することを特徴とする。 According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the signal processing unit includes A / D conversion means for A / D converting each audio signal of the first and second microphones, and the storage unit. Stores the sampling time of the A / D conversion means in advance, and the optimum coefficient calculation step performs the arithmetic processing based on the sampling time read from the storage unit in addition to the delay time and the amplitude ratio data. The coefficient used for is calculated.
この発明によれば、複数種類のインターホン装置に対しても(例えば、第1,第2のマイクロホン間の距離が異なる複数機種等)、キャリブレーションを行うことができ、汎用性が高まる。 According to the present invention, calibration can be performed for a plurality of types of intercom apparatuses (for example, a plurality of models having different distances between the first and second microphones), and versatility is enhanced.
以上説明したように、本発明では、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができるという効果がある。 As described above, according to the present invention, there is an effect that the microphone can be easily calibrated in the interphone apparatus that prevents howling by canceling the speaker sound from the transmission signal using a plurality of microphones.
以下、本発明の実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施形態1)
本実施形態のインターホン装置Aは図13〜図15に示され、本装置の外郭を形成する装置本体A1と、装置本体A1に取り付けられるスピーカモジュールA2、音声処理モジュールA3、マイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)、各種ボタンスイッチSW1〜SW3とで構成されており、建物内の適所において埋め込み配設されたボックス90の前面に取り付けられる。そして、ボックス90を介して配線された情報線Lsが接続され、部屋間で情報線Lsを介した双方向の通話が可能なインターホン装置として機能する。インターホン装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。なお、図14において、後述するスピーカSPの構成要件の一部(ヨーク20や永久磁石22等)は省略している。
(Embodiment 1)
The interphone apparatus A of the present embodiment is shown in FIGS. 13 to 15, and includes an apparatus main body A1 that forms the outline of the apparatus, a speaker module A2 that is attached to the apparatus main body A1, a sound processing module A3, a microphone M1 (first Microphone), microphone M2 (second microphone), and various button switches SW1 to SW3, which are attached to the front face of a
装置本体A1は、ABS(Acrylonitrile-Butadiene-Styrene resin)またはPC−ABS(PolyCarbonate−Acrylonitrile-Butadiene-Styreneresin)を成形して、後面および上下面を開放した略函状に形成され、その側面下部から後方に延設されて外側に係止爪を具備する係止片101がボックス90の図示しない係止突起に係止し、さらに上下端略中央に形成された切欠部102を介して、図示しない取付ねじをボックス90の図示しないねじ孔に螺合させることで、装置本体A1がボックス90に取り付けられる。そして、装置本体A1は、その上下端に取付孔103を設けており、取付孔103にねじを挿通させることで壁面等の構造物に固定される。
The apparatus main body A1 is formed in a substantially box shape with the rear surface and upper and lower surfaces opened by molding ABS (Acrylonitrile-Butadiene-Styrene resin) or PC-ABS (PolyCarbonate-Acrylonitrile-Butadiene-Styreneresin). A
また、装置本体A1の側面上部から後方へ延設されて内側に係止爪を具備する係止片104,105によって函状のスピーカモジュールA2の後面が係止されることによって、スピーカモジュールA2が装置本体A1の内側に取り付けられ、スピーカモジュールA2が対向する装置本体A1の前面には、スピーカモジュールA2が具備するスピーカSPからの音を通過させるための複数の音孔7が設けられている。この音孔7は、装置本体A1の前面上部の略中央に、複数の音孔7が略円状に形成されており、さらにその周囲にはディンプル加工による複数の凹部7aが形成されている。
Further, the rear surface of the box-shaped speaker module A2 is locked by the
また、装置本体A1の側面下部から後方へ延設されて内側に係止爪を具備する係止片106によって函状の音声処理モジュールA3の後面が係止されることによって、音声処理モジュールA3が装置本体A1の内側に取り付けられる。音声処理モジュールA3が対向する装置本体A1の前面には開口部110,111,112が設けられており、通話ボタンSW1、警報停止ボタンSW2、室内呼び出しボタンSW3の裏面に各々形成された突起が各開口部110,111,112に前方から挿通し、音声処理モジュールA3の前面に取り付けられ、装置本体A1の下部に形成された一対の取付孔103が通話ボタンSW1によって覆われる。
Further, the rear surface of the box-shaped sound processing module A3 is locked by a
また、装置本体A1の上部には、複数の凹部7aが形成されたプレートA4が前方から係止によって取り付けられ、装置本体A1の上部に形成された一対の取付孔103がプレートA4によって覆われる。
Further, a plate A4 formed with a plurality of
さらに、図16(a)〜(c)に示すように(なお、図16(b)のZ1−Z1断面が図16(a)に示され、図16(b)のZ2−Z2断面が図16(c)に示される)、スピーカモジュールA2が対向する装置本体A1の内面において、略円状に複数形成された音孔7の略中央に1つ目の円柱型のボス71が突設され、音孔7の側方(音孔7に対向しない箇所)に2つ目の円柱型のボス72が突設されており、ボス71の軸方向の端面に形成された円状の凹部71aにマイクロホンM1が取り付けられ、ボス72の軸方向の端面に形成された円状の凹部72aにマイクロホンM2が取り付けられており、マイクロホンM1,M2の位置決めを容易に行うことができる。ここで、マイクロホンM1,M2は円盤状の外郭を有し、その外周面にゴムキャップGを設けており、マイクロホンM1,M2を凹部71a,72aに圧入すれば、ゴムキャップGの弾性によって凹部71a,72a内に固定されるので、接着剤等の固定手段を用いることなく、組み立てが容易になる。または、凹部71a,72aの内側面に弾性を有するエラストマを形成すれば、マイクロホンM1,M2にゴムキャップGを設ける必要がなく、マイクロホンM1,M2を凹部71a,72a内に容易に固定することができる。さらには、ボス71,72全体が弾性を有するエラストマで形成されてもよい。
Further, as shown in FIGS. 16A to 16C (the Z1-Z1 cross section of FIG. 16B is shown in FIG. 16A, and the Z2-Z2 cross section of FIG. 16B is shown). 16 (c)), a first
さらに、マイクロホンM1,M2からは音声信号を出力する一対の配線W1,W2を各々導出しており、配線W1,W2は、凹部71a,72aから下方へ形成された溝部71b,72b内に配設されて、音声処理モジュールM3に引き込まれており、スピーカモジュールA2との干渉を防止するとともに、配線経路を確保している。また、マイクロホンM1,M2は、バックエレクトレット型のエレクトレットコンデンサマイクロホンで構成されている。
Further, a pair of wirings W1 and W2 for outputting audio signals are led out from the microphones M1 and M2, respectively, and the wirings W1 and W2 are disposed in
而して、装置本体A1の内面には、スピーカモジュールA2、音声処理モジュールA3、マイクロホンM1,M2が取り付けられており、ボックス90内に設けた図示しない電源回路が、外部から供給される商用電源ACを安定した直流電圧からなる内部回路の動作電源に変換して、各部へ供給している。
Thus, the speaker module A2, the sound processing module A3, and the microphones M1 and M2 are attached to the inner surface of the apparatus main body A1, and a power supply circuit (not shown) provided in the
スピーカモジュールA2は、音孔7に対向して装置本体A1の内面に取り付けられており、図14に示すように、後面に開口を設けて樹脂成形されたボディA21と、ボディA21の開口に覆設する平面状に樹脂成形されたカバーA22とで幅40mm×高さ30mm×厚さ8mmのモジュール本体A20を構成し、モジュール本体A20内にスピーカSPを備える。
The speaker module A2 is attached to the inner surface of the apparatus main body A1 so as to face the
スピーカSPは、図13に示すように、ボディA21の前面に設けた円形の凹部11の底面に形成された冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成された円環状のヨーク20と、ヨーク20の外周縁から前方に向かって延設された円筒状の支持体21とが、ボディA21の凹部11内に一体形成されている。
As shown in FIG. 13, the speaker SP has a thickness of about 0.8 mm made of cold rolled steel plate (SPCC, SPCEN), electromagnetic soft iron (SUY) or the like formed on the bottom surface of the
ヨーク20の円環内の開口20aにはNdFeBで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の段差面21aに接着されている。
A cylindrical permanent magnet 22 (for example, residual magnetic flux density of 1.39 T to 1.43 T) formed of NdFeB is disposed in the
振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、内側に円柱型永久磁石22を配置し、ヨーク20に対向して設けられており、ヨーク20の近傍を前後方向に自在に移動する。
The
またボディA21の前面において、図14に示すように、スピーカSPの側方には端子板30が配置され、この端子板30上に設けた一対の端子部にスピーカSPのボイスコイル25の一対のリード線が半田付けで接続され、音声処理モジュールA3からの出力配線も同様に半田付けで接続される。
Further, as shown in FIG. 14, a
そして、ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。
When an audio signal is input to the polyurethane copper wire of the
モジュール本体A20にスピーカSPが取り付けられると、モジュール本体A20の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。後気室Brは、スピーカSPの振動板23と支持体21の段差面21aとが密着し、さらにモジュール本体A20のボディA21とカバーA22とが密着することによって、モジュール本体A20外と絶縁した空間になる。
When the speaker SP is attached to the module main body A20, a rear air chamber Br which is a space surrounded by the rear inner side and the inner side surface of the module main body A20 and the rear surface side (
このスピーカモジュールA2を装置本体A1に取り付けると、図13に示すように、装置本体A1の内面とスピーカSPの表面側(振動板23側)とで囲まれて、後気室Brとは絶縁された空間である前気室Bfが形成され、装置本体A1裏面のボス71に取り付けられたマイクロホンM1は、その集音面が振動板23の略中心に対向して前気室Bf内に配置され、スピーカSPからの音声に対して高い指向性を有する。
When the speaker module A2 is attached to the apparatus main body A1, as shown in FIG. 13, it is surrounded by the inner surface of the apparatus main body A1 and the surface side of the speaker SP (
また、装置本体A1裏面のボス72は、スピーカモジュールA2のボディA21前面に設けた凹部31内に嵌まり、ボス72が凹部31に嵌合することで、スピーカモジュールA2を装置本体A1に組み付ける際に位置決めを容易に行うことができ、組み付け作業をスムーズに行うことができる。さらに、ボス72に取り付けられたマイクロホンM2は、その集音面を装置本体A1の前面に穿設された集音孔8を介して外部に連通しているので、集音孔8を介して伝達される、インターホン装置Aの前方に位置する話者からの音声に対して高い指向性を有している。
Further, the
次に、音声処理モジュールA3は、図17に示すように、通信部81、音声スイッチ部82,83、増幅部84、信号処理部85、記憶部86を備えたICで構成され、他の部屋等に設置されているインターホン装置Aから情報線Lsを介して送信された音声信号は、通信部81で受信され、音声スイッチ部82を介して増幅部84で増幅された後、スピーカSPから出力される。また、通話ボタンSW1を操作することで通話可能状態となり、マイクロホンM1,マイクロホンM2から入力された各音声信号は信号処理部85で後述する信号処理を施された後、音声スイッチ部83を通過し、通信部81から情報線Lsを介して他の部屋等に設置されているインターホン装置Aへ送信される。また、警報停止ボタンSW2は他の端末装置から情報線Lsを介して受信した警報信号による発報を停止する際に操作し、室内呼び出しボタンSW3は他の部屋に設置したインターホン装置Aを呼び出す際に操作する。
Next, as shown in FIG. 17, the audio processing module A3 is composed of an IC including a
そして、スピーカSPの振動板23の中心から各マイクロホンM1,M2の集音面の中心までの距離をそれぞれX1,X2とすると、X1<X2となり、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。
If the distances from the center of the
まず、音声処理モジュールA3に収納されている信号処理部85は、図18に示すように、マイクロホンM1,M2の各音声信号をA/D変換するA/D変換回路85a,85bと、A/D変換回路85aの出力を遅延させる遅延回路85cと、遅延回路85cの出力の振幅を調整する振幅調整回路85dと、A/D変換回路85bが出力するマイクロホンM2の音声信号から増幅回路85dが出力するマイクロホンM1の音声信号を減算する減算回路85eとを備える。
First, as shown in FIG. 18, the
図19〜図22は、スピーカSPからの音声をマイクロホンM1,M2で各々集音した場合における信号処理部85の各部の音声信号波形を示す。まず、スピーカSPの振動板23の中心から各マイクロホンM1,M2の集音面の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。したがって、スピーカSPからの音声をマイクロホンM1,M2で拾った場合、スピーカSPとマイクロホンM1,M2との距離、およびマイクロホンM1,M2の感度によってマイクロホンM2の出力のほうがマイクロホンM1の出力よりも振幅が小さく、さらに両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Cv](Cvは音速)だけマイクロホンM2の出力の位相が遅れている。
19 to 22 show audio signal waveforms of the respective units of the
したがって、A/D変換後のマイクロホンM2の出力Y21のほうが、A/D変換後のマイクロホンM1の出力Y11よりも振幅が小さく、マイクロホンM2の出力Y21はマイクロホンM1の出力Y11より遅延時間Tdだけ位相が遅れている。(図19(a)(b)参照)。 Therefore, the output Y21 of the microphone M2 after A / D conversion has a smaller amplitude than the output Y11 of the microphone M1 after A / D conversion, and the output Y21 of the microphone M2 is phased by the delay time Td from the output Y11 of the microphone M1. Is late. (See FIGS. 19A and 19B).
そして、遅延回路85cは、時間遅延素子またはCR位相遅延回路で構成されており、上記遅延時間TdだけスピーカSPに近いほうのマイクロホンM1の出力を遅延させることで、遅延回路85cの出力Y12とA/D変換回路85bの出力Y21との位相を一致させる(図20(a)(b)参照)。
The
そして、振幅調整回路85dが出力Y12の振幅を調整した出力Y13を生成するのであるが、このときに振幅調整を行ない、スピーカSPからの音声に対する出力Y13と出力Y21の振幅を一致させることで、スピーカSPからの音声に対する両マイクロホンM1,M2の出力レベルを一致させる(図21(a)(b)参照)。なお、本実施形態では、スピーカSPに近いマイクロホンM1に接続した振幅調整回路85dの増幅率は1未満となる。
Then, the
そして、出力Y13に含まれるスピーカSPからの音声成分と、出力Y21に含まれるスピーカSPからの音声成分とは、上記遅延処理,振幅調整処理によって同一振幅、同一位相となり、減算回路85eは、出力Y21からY13を減算することで、スピーカSPからの音声が打ち消された出力Yaが生成される(図22参照)。すなわち、出力Yaでは、スピーカSPからの音声成分が低減しているのである。
Then, the audio component from the speaker SP included in the output Y13 and the audio component from the speaker SP included in the output Y21 have the same amplitude and the same phase by the delay processing and the amplitude adjustment processing, and the subtracting
また、スピーカSPからの音声に対しては、集音面をスピーカSPの振動板23に対向させて配置したマイクロホンM1の出力Y11の振幅が、集音面を話者Hに向かって配置したマイクロホンM2の出力Y21の振幅に比べて大きくなり、一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、マイクロホンM2の出力Y21の振幅が、マイクロホンM1の出力Y11の振幅よりも大きくなる。さらに、振幅調整回路85dの増幅率は1未満なので、出力Y21に含まれる話者Hからの音声成分は、出力Y13に含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、出力Y13に含まれる話者Hからの音声成分と、出力Y21に含まれる話者Hからの音声成分との振幅差は大きくなり、減算回路85eで上記減算処理を施しても、出力Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。
For the sound from the speaker SP, the amplitude of the output Y11 of the microphone M1 arranged with the sound collection surface facing the
以上のようにして減算回路85eの出力YaではスピーカSPからの音声成分が低減されて、インターホン装置A前方の話者Hが発した音声成分は残っており、出力Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が大きくなる。すなわち、話者Hからの音声とスピーカSPからの音声とが同時に発生している場合でも、話者Hからの音声成分は十分な振幅を維持しながらスピーカSPからの音声成分のみが低減されるので、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止することができるのである。
As described above, the audio component from the speaker SP is reduced at the output Ya of the subtracting
しかしながら、スピーカSPからの音声に対する遅延時間Tdや、音声信号Y11,Y21の振幅は、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。 However, the delay time Td with respect to the sound from the speaker SP and the amplitudes of the sound signals Y11 and Y21 are ideal under conditions (for example, there is no variation in the point sound source, the housing sealed structure, the CR of the circuit configuration, etc.). It does not depend on the frequency of the sound emitted by the SP, but is constant with respect to the frequency. However, since it is not actually an ideal condition, it depends on the frequency of the sound emitted by the speaker SP.
そこで、スピーカSPからの音声に対する音声信号Y11,Y21間の遅延時間Tdや、音声信号Y11,Y21の振幅が周波数特性を有することから、遅延回路85cおよび振幅調整回路85dおよび減算回路85eにおける演算処理を、図23に示すように、互いに異なる周波数の音声信号に対応した複数の回路ブロック85i(i=1,2,...,n)と平均化処理部850とを用いたアルゴリズムで表すことが考えられる。
Therefore, since the delay time Td between the audio signals Y11 and Y21 with respect to the sound from the speaker SP and the amplitudes of the audio signals Y11 and Y21 have frequency characteristics, the arithmetic processing in the
マイクロホンM1に接続したA/D変換回路85aの出力Y11のm番目のデジタルデータをS(m)、マイクロホンM2に接続したA/D変換回路85bの出力Y21のm番目のデジタルデータをR(m)とすると、各回路ブロック85iは、マイクロホンM1のm番目のデジタルデータS(m)を増幅する増幅部90iと、遅れ要素91iを介してマイクロホンM1のm−1番目のデジタルデータS(m−1)を増幅する増幅部92iと、増幅部90i,91iの各出力を加算する加算部93iと、加算部93iの出力を増幅する増幅部94iと、マイクロホンM2のm番目のデジタルデータR(m)から増幅部94iの出力を減算する減算部95iとを備える。そして、平均化処理部850は、各回路ブロック85iの減算部95iの出力を加算して回路ブロック85iの数nで除することで、各回路ブロック85iの出力を平均化した出力Yaを生成する。
The mth digital data of the output Y11 of the A /
そして、増幅部90iの増幅率Bi1、増幅部92iの増幅率Bi2、増幅部94iの増幅率Ciの各係数は、回路ブロック85iに各々対応する周波数の音声信号に対して最もスピーカ音をキャンセルすることができる値に設定されている。すなわち、回路ブロック85iの各出力は、互いに異なる周波数毎にスピーカ音がキャンセルされているのである。 The coefficients of the amplification factor Bi1 of the amplification unit 90i, the amplification factor Bi2 of the amplification unit 92i, and the amplification factor Ci of the amplification unit 94i cancel the speaker sound most with respect to the audio signal having the frequency corresponding to the circuit block 85i. Is set to a value that can. That is, the speaker sound is canceled for each output of the circuit block 85i for each different frequency.
平均化処理部850が生成する出力Yaは、[数1]のようにBi1、Bi2、Ciという計3n個の係数(第1の係数)を用いて表される。
The output Ya generated by the averaging
さらに、[数1]は、[数2]のようにまとめることができるので、出力Yaは、Bi1、Bi2、Ci(第1の係数)を平均化処理したK1,K2の2つの係数(第2の係数)のみを用いて表すことができる。 Furthermore, since [Equation 1] can be summarized as [Equation 2], the output Ya is obtained by averaging two coefficients (first and second) K1, K2 obtained by averaging Bi1, Bi2, and Ci (first coefficient). 2).
したがって、[数2]より、遅延回路85cおよび振幅調整回路85dにおける演算処理は、図24に示すように、マイクロホンM1のm番目のデジタルデータS(m)を増幅率K1で増幅する増幅部96と、遅れ要素97を介してマイクロホンM1のm−1番目のデジタルデータS(m−1)を増幅率K2で増幅する増幅部98と、増幅部96,98の各出力を加算する加算部99とを用いたアルゴリズムで表すことができ、減算回路85eが、マイクロホンM2のm番目のデジタルデータR(m)から加算部99の出力を減算して出力Yaを生成する。本アルゴリズムでは、増幅部96の増幅率K1、増幅部98の増幅率K2という2つの係数のみを設定すればよく、図23に比べて信号処理のアルゴリズムを簡略化できる。
Therefore, from [Equation 2], the calculation process in the
本実施形態では、遅延回路85cおよび振幅調整回路85dとして図24のアルゴリズムを用いており、2つの係数[増幅率K1,K2]は、ROM等の記憶部86に記憶され、遅延回路85cおよび振幅調整回路85dは、記憶部86に記憶している係数[増幅率K1,K2]に基づいて演算処理を行うのであるが、これらの係数は後述のキャリブレーションによって記憶部86に格納される。
In the present embodiment, the algorithm of FIG. 24 is used as the
次に、音声スイッチ部82,83(図17参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。音声スイッチ部82は受信した信号の伝送線路上に配置され、音声スイッチ部83は送信する信号の伝送線路上に配置されており、音声スイッチ部82,83は互いの入力信号のレベルを比較し、入力信号のレベルが小さいほうの音声スイッチ部は、内部に具備した可変損失手段によって伝送線路上の伝送損失を大きくする。したがって、受信した信号と送信される信号とのうち、いずれかレベルの小さい信号は減衰し、ハウリングマージンがさらに増加するので、一層のハウリング防止が図られている。
Next, in the
次に、信号処理部85の遅延回路85cおよび振幅調整回路85dが演算処理を行う際に用いる係数[増幅率K1,K2]を設定し、これらの係数[増幅率K1,K2]を記憶部86に格納するキャリブレーションについて説明する。
Next, coefficients [amplification factors K1, K2] used when the
キャリブレーション装置Bは、図2に示すように、インターホン装置Aの製造ラインの梱包工程の前に設置された無響室200内に設置されており、無響室200は、幅1.5×奥行1.5×高さ2.0(m)の矩形箱状で、その両側面には、図3に示すようにコンベアCVを貫通させるための開口201が設けられている。無響室200の内部は、外部の騒音、ノイズ等が遮断されるため、キャリブレーションを行うのに適している。
As shown in FIG. 2, the calibration apparatus B is installed in an
無響室200内は図4に示すように、その内面を吸音材202で覆い、コンベアCVの近傍に設置された作業机210上に、パソコン211と、キャリブレーション中のインターホン装置Aを固定するための固定冶具212とが配置されており、作業者290がコンベアCVからキャリブレーション前のインターホン装置Aを固定冶具212にセッティングする。
As shown in FIG. 4, the inside of the
パソコン211は、図5に示すように、計測解析ツールとしてのアプリケーションソフト211a(以降、計測解析ソフト211aと称す)をインストールされるとともに、A/D変換部211bやメモリライタ211cや、RAM等の記憶部211d等を具備して、計測演算手段、係数書き込み手段を構成している。
As shown in FIG. 5, the
そして、作業者290は、パソコン211を操作して計測解析ソフト211aを起動した後、図1のフローチャートに沿ってキャリブレーションを行う。まず、作業者290は、パソコン211の出力ポート211eをスピーカ駆動用のアンプ220を介してインターホン装置AのスピーカSP(のボイスコイル25)に接続し、マイクロホンM1,M2の出力をA/D変換部211bに接続し、メモリライタ211cの入出力端子を音声処理モジュールA3内の記憶部86の入出力端子に接続する(S1)。スピーカ駆動用のアンプ220は、アンプ制御部220aと、増幅部220bとで構成されており、アンプ制御部220aは、パソコン211からの指示によって増幅部220bの動作を制御する。なお、インターホン装置Aに図示しないコネクタを設けて、パソコン211やアンプ220からの各配線をコネクタ接続し、結線作業の簡略化を図ってもよい。
Then, the
次に、作業者290の操作によってキャリブレーションを開始した計測解析ソフト211aは、アンプ220を介してスピーカSPを駆動し、マイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがサンプリングしてA/D変換する駆動工程を開始するのであるが、このとき、スピーカSPに入力する正弦波の周波数を順次選択して、複数の周波数でスピーカSPを順次駆動する。
Next, the
また、インターホン装置Aの記憶部86には、A/D変換回路85a,85bのサンプリング時間のデータが予め格納されており、計測解析ソフト211aは、起動時にインターホン装置Aの記憶部86からサンプリング時間のデータを読み出し、A/D変換部211bが行うA/D変換のサンプリング時間Tsとして設定する。すなわち、インターホン装置Aでのサンプリング時間と、パソコン211でのサンプリングとを一致させることで、キャリブレーションの精度を向上させている。
In addition, the storage unit 86 of the interphone device A stores sampling time data of the A /
まず、500Hzの正弦波でスピーカSPを駆動し(S2)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S3)。
First, the speaker SP is driven by a sine wave of 500 Hz (S2), the speaker sound collected by the microphones M1 and M2 at that time is A / D converted by the A / D converter 211b, and the
次に、1KHzの正弦波でスピーカSPを駆動し(S4)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S5)。
Next, the speaker SP is driven by a sine wave of 1 KHz (S4), and the speaker sound collected by the microphones M1 and M2 at that time is A / D converted by the A / D converter 211b. The signals after the / D conversion are stored in the
次に、2KHzの正弦波でスピーカSPを駆動し(S6)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S7)。
Next, the speaker SP is driven with a sine wave of 2 KHz (S6), and the speaker sound collected by the microphones M1, M2 at that time is A / D converted by the A / D converter 211b, and the
そして、計測解析ソフト211aは、500Hz、1KHz、2KHzの各正弦波を集音した各音声信号Ys1,Ys2に基づいて、振幅比データ導出工程、遅延時間データ導出工程を開始する。
Then, the
この振幅比データ導出工程(S8)について、以下説明する。まず、図23に示す簡略化前のアルゴリズムにおける回路ブロック851が500Hzのスピーカ音に対応し、回路ブロック852が1KHzのスピーカ音に対応し、回路ブロック853が2KHzのスピーカ音に対応していると考える。
This amplitude ratio data deriving step (S8) will be described below. First, the
そして、500Hzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図6(a)のように波高値V11(peak to peak)であり、500Hzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図6(b)のように波高値V21(peak to peak)であり、このときの振幅比データは[V11/V21]となり、この振幅比データ[V11/V21]は、増幅部941の増幅率C1に等しくなる。すなわち、C1=V11/V21 で表される。
Then, the audio signal Ys1 output from the microphone M1 that collects the speaker sound of 500 Hz has a peak value V11 (peak to peak) as shown in FIG. 6A, and the microphone M2 that collects the speaker sound of 500 Hz collects the sound signal Ys1. The audio signal Ys2 to be output has a peak value V21 (peak to peak) as shown in FIG. 6B, and the amplitude ratio data at this time is [V11 / V21], and the amplitude ratio data [V11 / V21] is , Equal to the amplification factor C1 of the
1KHzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図7(a)のように波高値V12(peak to peak)であり、1KHzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図7(b)のように波高値V22(peak to peak)であり、このときの振幅比データは[V12/V22]となり、この振幅比データ[V12/V22]は、増幅部942の増幅率C2に等しくなる。すなわち、C2=V12/V22 で表される。
The audio signal Ys1 output from the microphone M1 that has collected the speaker sound of 1 KHz has a peak value V12 (peak to peak) as shown in FIG. 7A, and is output from the microphone M2 that has collected the speaker sound of 1 KHz. The audio signal Ys2 has a peak value V22 (peak to peak) as shown in FIG. 7B, and the amplitude ratio data at this time is [V12 / V22], and the amplitude ratio data [V12 / V22] is amplified. It becomes equal to the amplification factor C2 of the
2KHzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図8(a)のように波高値V13(peak to peak)であり、2KHzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図8(b)のように波高値V23(peak to peak)であり、このときの振幅比データは[V13/V23]となり、この振幅比データ[V13/V23]は、増幅部943の増幅率C3に等しくなる。すなわち、C3=V13/V23 で表される。 The audio signal Ys1 output by the microphone M1 that has collected the speaker sound of 2 KHz has a peak value V13 (peak to peak) as shown in FIG. 8A, and is output by the microphone M2 that has collected the speaker sound of 2 KHz. The audio signal Ys2 has a peak value V23 (peak to peak) as shown in FIG. 8B, and the amplitude ratio data at this time is [V13 / V23], and this amplitude ratio data [V13 / V23] is amplified. It becomes equal to the amplification factor C3 of the part 943. That is, it is expressed by C3 = V13 / V23.
次に、500Hz、1KHz、2KHzの各スピーカ音を集音したマイクロホンM1,M2の各音声信号Y11,Y21から、マイクロホンM1の出力に対してマイクロホンM2の出力の位相が遅れている遅延時間Tdを周波数毎に導出する(S9)。 Next, the delay time Td in which the phase of the output of the microphone M2 is delayed with respect to the output of the microphone M1 from the audio signals Y11 and Y21 of the microphones M1 and M2 that collect the speaker sounds of 500 Hz, 1 KHz, and 2 KHz. Derived for each frequency (S9).
まず、500Hzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図9(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td1だけ遅れている。 First, as shown in FIGS. 9A and 9B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 500 Hz are the audio signals Ys2 of the microphone M1 and the audio signals Ys1 of the microphone M1. Is delayed by a delay time Td1.
1KHzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図10(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td2だけ遅れている。 As shown in FIGS. 10A and 10B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 1 KHz are compared with the audio signal Ys1 of the microphone M1 as compared with the audio signal Ys1 of the microphone M1. Is delayed by the delay time Td2.
2KHzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図11(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td3だけ遅れている。 As shown in FIGS. 11A and 11B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 2 KHz are compared with the audio signal Ys1 of the microphone M1 as compared with the audio signal Ys1 of the microphone M1. Is delayed by the delay time Td3.
次に、500Hz時、1KHz時、2KHz時の各振幅比データ[C1=V11/V21、C2=V12/V22、C3=V13/V23]、各遅延時間データ[Td1,Td2,Td3]に基づいて、スピーカ音をキャンセルする演算処理に最適な係数[増幅率K1,K2]を導出する最適係数導出工程を開始する(S10)。ここで、500Hz時、1KHz時、2KHz時の各遅延時間Td1,Td2,Td3が、Td1<Td2<Td3の関係を有するとして、以下説明する。 Next, based on each amplitude ratio data [C1 = V11 / V21, C2 = V12 / V22, C3 = V13 / V23] at 500 Hz, 1 KHz, and 2 KHz, and each delay time data [Td1, Td2, Td3] Then, an optimum coefficient deriving step for deriving optimum coefficients [amplification factors K1, K2] for calculation processing for canceling the speaker sound is started (S10). Here, the following description will be made assuming that the delay times Td1, Td2, and Td3 at 500 Hz, 1 KHz, and 2 KHz have a relationship of Td1 <Td2 <Td3.
まず、最も短い遅延時間Tdの周波数に対応する回路ブロック85iの増幅部90iの増幅率Bi1を「1」とし、増幅部92iの増幅率Bi2を「0」にする。ここでは、遅延時間Td1が最も短いので、500Hzに対応する回路ブロック851の増幅部901の増幅率B11を「1」とし、増幅部921の増幅率B12を「0」にする。
First, the amplification factor Bi1 of the amplification unit 90i of the circuit block 85i corresponding to the frequency of the shortest delay time Td is set to “1”, and the amplification factor Bi2 of the amplification unit 92i is set to “0”. Here, since the delay time Td1 is the shortest, the amplification factor B11 of the
他の周波数に対応する回路ブロックの回路ブロック85iの各増幅率Bi1,Bi2は、各周波数における遅延時間と最も短い遅延時間との差分によって求める。例えば、図12では、A/D変換部211bがサンプリング時間TsでA/D変換を行っており、プロットP1が、最も短い遅延時間の周波数に対応するマイクロホンM1の出力のm番目のデジタルデータS(m)を示し、プロットP2が、最も短い遅延時間の周波数に対応するマイクロホンM1の出力のm−1番目のデジタルデータS(m−1)を示す。そして、この最も短い遅延時間と他の周波数における遅延時間との差分ΔTdとすると、プロットP1−P2間を結ぶ直線上で、プロットP1から差分ΔTdだけ遅れたプロットP3に、他の周波数に対応するマイクロホンM1の出力のm番目のデジタルデータが存在すると考えられる。 The amplification factors Bi1 and Bi2 of the circuit block 85i of the circuit block corresponding to another frequency are obtained from the difference between the delay time at each frequency and the shortest delay time. For example, in FIG. 12, the A / D conversion unit 211b performs A / D conversion with the sampling time Ts, and the plot P1 indicates the mth digital data S output from the microphone M1 corresponding to the frequency with the shortest delay time. (M) is shown, and the plot P2 shows the (m−1) th digital data S (m−1) of the output of the microphone M1 corresponding to the frequency with the shortest delay time. If the difference ΔTd between the shortest delay time and the delay time at another frequency is taken as a difference ΔTd, the plot P3 delayed by the difference ΔTd from the plot P1 on the straight line connecting the plots P1 and P2 corresponds to the other frequency. It is considered that there is m-th digital data output from the microphone M1.
而して、図12より[数3]が導き出され、増幅率Bi1,Bi2は[数4]のように表される。 Thus, [Expression 3] is derived from FIG. 12, and the amplification factors Bi1 and Bi2 are expressed as [Expression 4].
したがって、周波数1KHzに対応する回路ブロック852の増幅部902の増幅率B21、増幅部922の増幅率B22は[数5]で表される。
Therefore, the amplification factor B21 of the
また、周波数2KHzに対応する回路ブロック853の増幅部903の増幅率B31、増幅部923の増幅率B32は[数6]で表される。
Further, the amplification factor B31 of the amplification unit 903 and the amplification factor B32 of the amplification unit 923 of the circuit block 853 corresponding to the
そして、[数2]より[数7]が求められるので、上記のように求めた各周波数に対応する回路ブロック85iにおける増幅部94iの増幅率Ci、増幅部90iの増幅率Bi1、増幅部92iの増幅率Bi2を[数7]に代入して平均化し、信号処理部85の遅延回路85cおよび振幅調整回路85dが演算処理(図24のアルゴリズム)を行う際に用いる係数[増幅率K1,K2]を算出する(S10)。
Since [Equation 7] is obtained from [Equation 2], the amplification factor Ci of the amplification unit 94i, the amplification factor Bi1 of the amplification unit 90i, and the amplification unit 92i in the circuit block 85i corresponding to each frequency obtained as described above. Is substituted into [Equation 7] and averaged, and the coefficients [amplification factors K1, K2 used when the
このように、マイクロホンM1,M2の音声信号が有する周波数特性を考慮して、係数[増幅率K1,K2]を算出するので、キャリブレーションの精度が高くなる。また、Bi1、Bi2、Ci(第1の係数)を平均化処理したK1,K2の2つの係数(第2の係数)のみを算出するので、キャリブレーションに要する時間を短縮できる。 In this way, the coefficients [amplification factors K1, K2] are calculated in consideration of the frequency characteristics of the sound signals of the microphones M1, M2, so that the calibration accuracy is increased. Further, since only two coefficients (second coefficient) K1 and K2 obtained by averaging Bi1, Bi2, and Ci (first coefficient) are calculated, the time required for calibration can be shortened.
ここで、計測解析ソフト211aは、起動時にインターホン装置Aの記憶部86からサンプリング時間のデータを読み出し、A/D変換部211bが行うA/D変換のサンプリング時間Tsとして設定している。したがって、複数種類のインターホン装置Aに対しても(例えば、マイクロホンM1,M2間の距離が異なる複数機種等)、上記キャリブレーションを行うことができ、汎用性が高まる。
Here, the
次に、パソコン211の計測解析ソフト211aは、S10で算出した係数[増幅率K1,K2]が予め設定された範囲内に収まっているか否かを判定し、係数[増幅率K1,K2]が当該範囲内に収まっておれば、算出した係数[増幅率K1,K2]を適正な値であるとして、メモリライタ211cによってインターホン装置Aの記憶部86に格納する。係数[増幅率K1,K2]が当該範囲内に収まっていなければ、算出した係数[増幅率K1,K2]は不適正な値であるとして破棄し、不適正な係数[増幅率K1,K2]が記憶部86に格納されることなく、インターホン装置Aの信頼性を確保している(S11)。
Next, the
そして、無響室200内の作業者290は、係数[増幅率K1,K2]が適正値で算出されて記憶部86に格納されたインターホン装置Aは、再びコンベアCVに載せて、無響室200から搬出する。このインターホン装置AをコンベアCVに載せる作業は、図示しないロボット機械が行って、工数の短縮を図ってもよい。一方、係数[増幅率K1,K2]が不適正値で算出されてキャリブレーション不良となったインターホン装置A’は、無響室200内のトレイ230に保管される(図4参照)。そして、マイクロホンM1,M2の不良の有無、配線の断線の有無等を調べて、キャリブレーション不良の原因となった部品を交換したり、修理を行った後に、再びキャリブレーションを行う。
Then, the
キャリブレーションが完了したインターホン装置Aは、コンベアCによって無響室200から梱包工程に搬送され、作業者300によってダンボール箱301に梱包されて、出荷される(図2参照)。
The intercom apparatus A that has been calibrated is transported from the
このように、インターホン装置Aは、スピーカSP、マイクロホンM1,M2、音声処理モジュールが装置本体A1に組み付けられた状態でキャリブレーションされており、インターホン装置Aに組み込まれたスピーカSPが発する音を用いて、スピーカ音のキャンセル処理を行う演算処理に用いる係数[増幅率K1,K2]を算出するので、別途スピーカ等の発音体を用意する必要がなく、キャリブレーション装置の構成を簡略化できる。 As described above, the interphone apparatus A is calibrated in a state where the speaker SP, the microphones M1 and M2, and the sound processing module are assembled to the apparatus main body A1, and uses the sound emitted by the speaker SP incorporated in the interphone apparatus A. Thus, since the coefficients [amplification factors K1, K2] used for the calculation process for canceling the speaker sound are calculated, it is not necessary to prepare a separate sound generator such as a speaker, and the configuration of the calibration apparatus can be simplified.
なお、本実施形態では、情報線Lsを介した有線通信方式を用いて、インターホン装置A間における音声信号の授受を行っているが、インターホン装置Aに周知の無線通信手段を設けることで、無線通信方式による音声信号の授受を行ってもよい。 In this embodiment, audio signals are exchanged between the intercom apparatuses A using a wired communication system via the information line Ls. However, by providing a well-known wireless communication means in the interphone apparatus A, wireless communication is possible. Voice signals may be exchanged using a communication method.
(実施形態2)
実施形態1では、インターホン装置Aに、計測解析ソフト211aをインストールした外部のパソコン211やアンプ220を接続して、キャリブレーションを行ったが、本実施形態のインターホン装置Aは、図25に示すように、マイクロコンピュータ240(以降、マイコン240と称す)を内部に格納している。マイコン240は、図26に示すように、計測解析ツールとしてのアプリケーションソフト240a(以降、計測解析ソフト240aと称す)をインストールされるとともに、RAM等の記憶部240b等を具備しており、外部のパソコン等の端末250と外部インタフェース260を介して通信可能に構成されている。また音声処理モジュールA3が、実施形態1のアンプ220やA/D変換手段211bやメモリライタ211cの各機能を備え、マイコン240および音声処理モジュールA3で計測演算手段、係数書き込み手段を構成している。
(Embodiment 2)
In the first embodiment, the
そして、作業者290が端末250を操作してマイコン240にアクセスし、計測解析ソフト240aを起動した後、計測解析ソフト240aは図27のフローチャートに沿ってキャリブレーションを行う。まず、計測解析ソフト240aはスピーカSPを駆動し、テストモード1(S21)、テストモード2(S22)の順に処理を行う。
Then, after the
まず、テストモード1において計測解析ソフト240aは、マイクロホンM1からの入力を有効、マイクロホンM2からの入力を無効とした後に、500Hzの正弦波,1KHzの正弦波,2KHzの正弦波の順にスピーカSPを駆動し、各周波数においてマイクロホンM1が集音したスピーカ音を音声処理モジュールA3が順次A/D変換し、計測解析ソフト240aはA/D変換後の各周波数の信号を、マイクロホンM1の音声信号Ys1として記憶部240bに格納しておく。
First, in the
次に、テストモード2において計測解析ソフト240aは、マイクロホンM1からの入力を無効、マイクロホンM2からの入力を有効とした後に、500Hzの正弦波,1KHzの正弦波,2KHzの正弦波の順にスピーカSPを駆動し、各周波数においてマイクロホンM2が集音したスピーカ音を音声処理モジュールA3が順次A/D変換し、計測解析ソフト240aはA/D変換後の各周波数の信号を、マイクロホンM2の音声信号Ys2として記憶部240bに格納しておく。
Next, in the
そして、計測解析ソフト240aは、500Hz、1KHz、2KHzの各正弦波を集音した各音声信号Ys1,Ys2に基づいて、振幅比データ導出工程(S23)、遅延時間データ導出工程(S24)を行い、その後、500Hz時、1KHz時、2KHz時の各振幅比データ[C1=V11/V21、C2=V12/V22、C3=V13/V23]、各遅延時間データ[Td1,Td2,Td3]に基づいて(図6〜図11参照)、スピーカ音をキャンセルする演算処理に最適な係数[増幅率K1,K2]を導出する最適係数導出工程を行う(S25)。なお、上記振幅比データ導出工程(S23)、遅延時間データ導出工程(S24)、最適係数導出工程(S25)は、実施形態1の振幅比データ導出工程(S8)、遅延時間データ導出工程(S9)、最適係数導出工程(S10)と同様であるので、詳細な説明は省略する。但し本実施形態においては、マイクロホンM1,M2の各音声信号をテストモード1,2で個別に集音しているため、マイクロホンM1の出力に対してマイクロホンM2の出力の位相が遅れている遅延時間Tdは、スピーカSPから各周波数の音声を出力したタイミングを基準として導出している。
The
次に、計測解析ソフト240aは、S25で算出した係数[増幅率K1,K2]が予め設定された範囲内に収まっているか否かを判定し、係数[増幅率K1,K2]が当該範囲内に収まっておれば、算出した係数[増幅率K1,K2]を適正な値であるとして、インターホン装置Aの記憶部86に格納する。係数[増幅率K1,K2]が当該範囲内に収まっていなければ、算出した係数[増幅率K1,K2]は不適正な値であるとして破棄し、不適正な係数[増幅率K1,K2]が記憶部86に格納されることなく、インターホン装置Aの信頼性を確保している(S26)。
Next, the
このように本実施形態のキャリブレーション方法では、インターホン装置Aが、計測解析ソフト240aをインストールしたマイコン240や、アンプ、A/D変換手段、メモリライタの各機能を具備した音声処理モジュールA3を備えているので、外部のパソコン211に計測解析ソフトをインストールしたり、アンプ220を用意する必要がなく、キャリブレーション装置の構成をさらに簡略化できる。さらには、インターホン装置Aを設置した後でも、マイコン240と通信可能な端末装置250をインターホン装置Aに接続するだけで、設置状況に応じたキャリブレーションを容易に行うことができる。なお、他の構成は実施形態1と同様であり、説明は省略する。
As described above, in the calibration method of the present embodiment, the intercom apparatus A includes the
A インターホン装置
SP スピーカ
M1,M2 マイクロホン
211 パソコン
220 アンプ
A Intercom device SP Speaker M1,
Claims (5)
音声を集音して音声信号を出力する第1,第2のマイクロホンと、
第1,第2のマイクロホンと発音体との各距離の差に相当する音波の伝達時間である遅延時間、および発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅比から算出される係数を用いた演算処理を、第1,第2のマイクロホンが出力する音声信号に対して施すことで、発音体が発した音をキャンセルした音声信号を生成する信号処理部と、
信号処理部が演算処理に用いる係数を記憶した記憶部と、
を具備したインターホン装置に対してキャリブレーションを行うインターホン装置用キャリブレーション方法であって、
インターホン装置に発音体、第1,第2のマイクロホン、信号処理部、記憶部を組み込んだ状態で発音体を特定の周波数で駆動する駆動工程と、
特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅に基づいて、前記振幅比のデータを導出する振幅比データ導出工程と、
特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の位相に基づいて、前記遅延時間のデータを導出する遅延時間データ導出工程と、
前記導出された遅延時間および前記振幅比の各データに基づいて、信号処理部が前記演算処理に用いる係数を算出する最適係数算出工程と、
前記算出した係数を記憶部に格納する記憶工程と、
を含むことを特徴とするインターホン装置用キャリブレーション方法。 A sounding body that emits sound based on the transmitted sound information;
First and second microphones for collecting sound and outputting sound signals;
From the delay time which is the transmission time of the sound wave corresponding to the difference between the distances between the first and second microphones and the sounding body, and the amplitude ratio of the sound signals of the first and second microphones to the sound from the sounding body. A signal processing unit that generates an audio signal in which the sound emitted by the sounding body is canceled by performing arithmetic processing using the calculated coefficient on the audio signal output from the first and second microphones;
A storage unit that stores coefficients used by the signal processing unit for arithmetic processing;
A calibration method for an intercom device that calibrates an intercom device equipped with
A driving step of driving the sounding body at a specific frequency in a state in which the sounding body, the first and second microphones, the signal processing unit, and the storage unit are incorporated in the intercom device;
An amplitude ratio data deriving step for deriving the data of the amplitude ratio based on the amplitude of each audio signal of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency;
A delay time data deriving step for deriving the delay time data based on the phase of each sound signal of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency;
An optimum coefficient calculating step for calculating a coefficient used by the signal processing unit for the arithmetic processing based on each of the derived delay time and amplitude ratio data;
A storage step of storing the calculated coefficient in a storage unit;
A calibration method for an intercom device, comprising:
前記振幅比データ導出工程および遅延時間データ導出工程は、複数の周波数から順次選択される特定の周波数毎に前記振幅比および前記遅延時間の各データを導出する
ことを特徴とする請求項1記載のインターホン装置用キャリブレーション方法。 The driving step drives the sounding body at a specific frequency sequentially selected from a plurality of frequencies,
The amplitude ratio data deriving step and the delay time data deriving step derive each data of the amplitude ratio and the delay time for each specific frequency sequentially selected from a plurality of frequencies. Calibration method for intercom equipment.
前記記憶工程は、第2の係数を前記記憶部に格納する
ことを特徴とする請求項2記載のインターホン装置用キャリブレーション方法。 The optimal coefficient calculating step uses a first data used for the calculation processing for each specific frequency based on the amplitude ratio and the delay time data derived for each specific frequency sequentially selected from a plurality of frequencies. And calculating a second coefficient used for the arithmetic processing by averaging the plurality of first coefficients calculated for each specific frequency,
The intercom device calibration method according to claim 2, wherein the storing step stores the second coefficient in the storage unit.
前記最適係数算出工程は、前記遅延時間および前記振幅比の各データに加えて記憶部から読み出したサンプリング時間に基づいて、前記演算処理に用いる係数を算出する
ことを特徴とする請求項1乃至4いずれか記載のインターホン装置用キャリブレーション方法。 The signal processing unit includes A / D conversion means for A / D converting each audio signal of the first and second microphones, and the storage unit stores in advance the sampling time of the A / D conversion means,
5. The optimum coefficient calculating step calculates a coefficient used for the arithmetic processing based on a sampling time read from a storage unit in addition to each data of the delay time and the amplitude ratio. The interphone apparatus calibration method according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244971A JP2010081124A (en) | 2008-09-24 | 2008-09-24 | Calibration method for intercom device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008244971A JP2010081124A (en) | 2008-09-24 | 2008-09-24 | Calibration method for intercom device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010081124A true JP2010081124A (en) | 2010-04-08 |
Family
ID=42211096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008244971A Pending JP2010081124A (en) | 2008-09-24 | 2008-09-24 | Calibration method for intercom device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010081124A (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017527223A (en) * | 2014-09-09 | 2017-09-14 | ソノズ インコーポレイテッド | Playback device calibration |
JP2017531377A (en) * | 2014-09-09 | 2017-10-19 | ソノズ インコーポレイテッド | Playback device calibration |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9864574B2 (en) | 2016-04-01 | 2018-01-09 | Sonos, Inc. | Playback device calibration based on representation spectral characteristics |
US9872119B2 (en) | 2014-03-17 | 2018-01-16 | Sonos, Inc. | Audio settings of multiple speakers in a playback device |
US9913057B2 (en) | 2012-06-28 | 2018-03-06 | Sonos, Inc. | Concurrent multi-loudspeaker calibration with a single measurement |
US9992597B2 (en) | 2015-09-17 | 2018-06-05 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US10003899B2 (en) | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
US10045142B2 (en) | 2016-04-12 | 2018-08-07 | Sonos, Inc. | Calibration of audio playback devices |
US10051399B2 (en) | 2014-03-17 | 2018-08-14 | Sonos, Inc. | Playback device configuration according to distortion threshold |
US10063983B2 (en) | 2016-01-18 | 2018-08-28 | Sonos, Inc. | Calibration using multiple recording devices |
US10129678B2 (en) | 2016-07-15 | 2018-11-13 | Sonos, Inc. | Spatial audio correction |
US10127008B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Audio processing algorithm database |
US10129679B2 (en) | 2015-07-28 | 2018-11-13 | Sonos, Inc. | Calibration error conditions |
US10127006B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US10284983B2 (en) | 2015-04-24 | 2019-05-07 | Sonos, Inc. | Playback device calibration user interfaces |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
US10296282B2 (en) | 2012-06-28 | 2019-05-21 | Sonos, Inc. | Speaker calibration user interface |
US10334386B2 (en) | 2011-12-29 | 2019-06-25 | Sonos, Inc. | Playback based on wireless signal |
US10372406B2 (en) | 2016-07-22 | 2019-08-06 | Sonos, Inc. | Calibration interface |
US10448194B2 (en) | 2016-07-15 | 2019-10-15 | Sonos, Inc. | Spectral correction using spatial calibration |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US10585639B2 (en) | 2015-09-17 | 2020-03-10 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US10599386B2 (en) | 2014-09-09 | 2020-03-24 | Sonos, Inc. | Audio processing algorithms |
US10664224B2 (en) | 2015-04-24 | 2020-05-26 | Sonos, Inc. | Speaker calibration user interface |
US10734965B1 (en) | 2019-08-12 | 2020-08-04 | Sonos, Inc. | Audio calibration of a portable playback device |
US11106423B2 (en) | 2016-01-25 | 2021-08-31 | Sonos, Inc. | Evaluating calibration of a playback device |
US11206484B2 (en) | 2018-08-28 | 2021-12-21 | Sonos, Inc. | Passive speaker authentication |
US11983458B2 (en) | 2022-12-14 | 2024-05-14 | Sonos, Inc. | Calibration assistance |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01245742A (en) * | 1988-03-28 | 1989-09-29 | Matsushita Electric Works Ltd | Loudspeaker communication set |
JP2003032780A (en) * | 2001-07-16 | 2003-01-31 | Matsushita Electric Ind Co Ltd | Howling detecting and suppressing device, acoustic device provided therewith and howling detecting and suppressing method |
JP2007267044A (en) * | 2006-03-28 | 2007-10-11 | Matsushita Electric Works Ltd | Speaking device |
JP2008109522A (en) * | 2006-10-26 | 2008-05-08 | Matsushita Electric Works Ltd | Speaking device |
-
2008
- 2008-09-24 JP JP2008244971A patent/JP2010081124A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01245742A (en) * | 1988-03-28 | 1989-09-29 | Matsushita Electric Works Ltd | Loudspeaker communication set |
JP2003032780A (en) * | 2001-07-16 | 2003-01-31 | Matsushita Electric Ind Co Ltd | Howling detecting and suppressing device, acoustic device provided therewith and howling detecting and suppressing method |
JP2007267044A (en) * | 2006-03-28 | 2007-10-11 | Matsushita Electric Works Ltd | Speaking device |
JP2008109522A (en) * | 2006-10-26 | 2008-05-08 | Matsushita Electric Works Ltd | Speaking device |
Cited By (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11528578B2 (en) | 2011-12-29 | 2022-12-13 | Sonos, Inc. | Media playback based on sensor data |
US10945089B2 (en) | 2011-12-29 | 2021-03-09 | Sonos, Inc. | Playback based on user settings |
US10455347B2 (en) | 2011-12-29 | 2019-10-22 | Sonos, Inc. | Playback based on number of listeners |
US11290838B2 (en) | 2011-12-29 | 2022-03-29 | Sonos, Inc. | Playback based on user presence detection |
US11825289B2 (en) | 2011-12-29 | 2023-11-21 | Sonos, Inc. | Media playback based on sensor data |
US10986460B2 (en) | 2011-12-29 | 2021-04-20 | Sonos, Inc. | Grouping based on acoustic signals |
US11122382B2 (en) | 2011-12-29 | 2021-09-14 | Sonos, Inc. | Playback based on acoustic signals |
US11153706B1 (en) | 2011-12-29 | 2021-10-19 | Sonos, Inc. | Playback based on acoustic signals |
US11825290B2 (en) | 2011-12-29 | 2023-11-21 | Sonos, Inc. | Media playback based on sensor data |
US10334386B2 (en) | 2011-12-29 | 2019-06-25 | Sonos, Inc. | Playback based on wireless signal |
US11849299B2 (en) | 2011-12-29 | 2023-12-19 | Sonos, Inc. | Media playback based on sensor data |
US11197117B2 (en) | 2011-12-29 | 2021-12-07 | Sonos, Inc. | Media playback based on sensor data |
US11910181B2 (en) | 2011-12-29 | 2024-02-20 | Sonos, Inc | Media playback based on sensor data |
US11889290B2 (en) | 2011-12-29 | 2024-01-30 | Sonos, Inc. | Media playback based on sensor data |
US10045138B2 (en) | 2012-06-28 | 2018-08-07 | Sonos, Inc. | Hybrid test tone for space-averaged room audio calibration using a moving microphone |
US11064306B2 (en) | 2012-06-28 | 2021-07-13 | Sonos, Inc. | Calibration state variable |
US10129674B2 (en) | 2012-06-28 | 2018-11-13 | Sonos, Inc. | Concurrent multi-loudspeaker calibration |
US10412516B2 (en) | 2012-06-28 | 2019-09-10 | Sonos, Inc. | Calibration of playback devices |
US11368803B2 (en) | 2012-06-28 | 2022-06-21 | Sonos, Inc. | Calibration of playback device(s) |
US10791405B2 (en) | 2012-06-28 | 2020-09-29 | Sonos, Inc. | Calibration indicator |
US10045139B2 (en) | 2012-06-28 | 2018-08-07 | Sonos, Inc. | Calibration state variable |
US10296282B2 (en) | 2012-06-28 | 2019-05-21 | Sonos, Inc. | Speaker calibration user interface |
US11800305B2 (en) | 2012-06-28 | 2023-10-24 | Sonos, Inc. | Calibration interface |
US10674293B2 (en) | 2012-06-28 | 2020-06-02 | Sonos, Inc. | Concurrent multi-driver calibration |
US9913057B2 (en) | 2012-06-28 | 2018-03-06 | Sonos, Inc. | Concurrent multi-loudspeaker calibration with a single measurement |
US9961463B2 (en) | 2012-06-28 | 2018-05-01 | Sonos, Inc. | Calibration indicator |
US10284984B2 (en) | 2012-06-28 | 2019-05-07 | Sonos, Inc. | Calibration state variable |
US11516608B2 (en) | 2012-06-28 | 2022-11-29 | Sonos, Inc. | Calibration state variable |
US11516606B2 (en) | 2012-06-28 | 2022-11-29 | Sonos, Inc. | Calibration interface |
US11696081B2 (en) | 2014-03-17 | 2023-07-04 | Sonos, Inc. | Audio settings based on environment |
US10511924B2 (en) | 2014-03-17 | 2019-12-17 | Sonos, Inc. | Playback device with multiple sensors |
US10299055B2 (en) | 2014-03-17 | 2019-05-21 | Sonos, Inc. | Restoration of playback device configuration |
US10051399B2 (en) | 2014-03-17 | 2018-08-14 | Sonos, Inc. | Playback device configuration according to distortion threshold |
US10863295B2 (en) | 2014-03-17 | 2020-12-08 | Sonos, Inc. | Indoor/outdoor playback device calibration |
US11540073B2 (en) | 2014-03-17 | 2022-12-27 | Sonos, Inc. | Playback device self-calibration |
US9872119B2 (en) | 2014-03-17 | 2018-01-16 | Sonos, Inc. | Audio settings of multiple speakers in a playback device |
US10791407B2 (en) | 2014-03-17 | 2020-09-29 | Sonon, Inc. | Playback device configuration |
US10129675B2 (en) | 2014-03-17 | 2018-11-13 | Sonos, Inc. | Audio settings of multiple speakers in a playback device |
US10412517B2 (en) | 2014-03-17 | 2019-09-10 | Sonos, Inc. | Calibration of playback device to target curve |
CN110719561A (en) * | 2014-09-09 | 2020-01-21 | 搜诺思公司 | Computing device, computer readable medium, and method executed by computing device |
JP2019068446A (en) * | 2014-09-09 | 2019-04-25 | ソノズ インコーポレイテッド | Calibration of reproduction device |
US11029917B2 (en) | 2014-09-09 | 2021-06-08 | Sonos, Inc. | Audio processing algorithms |
JP2017531377A (en) * | 2014-09-09 | 2017-10-19 | ソノズ インコーポレイテッド | Playback device calibration |
US9936318B2 (en) | 2014-09-09 | 2018-04-03 | Sonos, Inc. | Playback device calibration |
JP2017527223A (en) * | 2014-09-09 | 2017-09-14 | ソノズ インコーポレイテッド | Playback device calibration |
US10127008B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Audio processing algorithm database |
JP2018023116A (en) * | 2014-09-09 | 2018-02-08 | ソノズ インコーポレイテッド | Calibration of reproducing device |
US11625219B2 (en) | 2014-09-09 | 2023-04-11 | Sonos, Inc. | Audio processing algorithms |
US10599386B2 (en) | 2014-09-09 | 2020-03-24 | Sonos, Inc. | Audio processing algorithms |
US10127006B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US10271150B2 (en) | 2014-09-09 | 2019-04-23 | Sonos, Inc. | Playback device calibration |
US10701501B2 (en) | 2014-09-09 | 2020-06-30 | Sonos, Inc. | Playback device calibration |
US10154359B2 (en) | 2014-09-09 | 2018-12-11 | Sonos, Inc. | Playback device calibration |
US10664224B2 (en) | 2015-04-24 | 2020-05-26 | Sonos, Inc. | Speaker calibration user interface |
US10284983B2 (en) | 2015-04-24 | 2019-05-07 | Sonos, Inc. | Playback device calibration user interfaces |
US10462592B2 (en) | 2015-07-28 | 2019-10-29 | Sonos, Inc. | Calibration error conditions |
US10129679B2 (en) | 2015-07-28 | 2018-11-13 | Sonos, Inc. | Calibration error conditions |
US11803350B2 (en) | 2015-09-17 | 2023-10-31 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US9992597B2 (en) | 2015-09-17 | 2018-06-05 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US11706579B2 (en) | 2015-09-17 | 2023-07-18 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US10585639B2 (en) | 2015-09-17 | 2020-03-10 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US11197112B2 (en) | 2015-09-17 | 2021-12-07 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US11099808B2 (en) | 2015-09-17 | 2021-08-24 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US10419864B2 (en) | 2015-09-17 | 2019-09-17 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US10063983B2 (en) | 2016-01-18 | 2018-08-28 | Sonos, Inc. | Calibration using multiple recording devices |
US11432089B2 (en) | 2016-01-18 | 2022-08-30 | Sonos, Inc. | Calibration using multiple recording devices |
US10405117B2 (en) | 2016-01-18 | 2019-09-03 | Sonos, Inc. | Calibration using multiple recording devices |
US10841719B2 (en) | 2016-01-18 | 2020-11-17 | Sonos, Inc. | Calibration using multiple recording devices |
US11800306B2 (en) | 2016-01-18 | 2023-10-24 | Sonos, Inc. | Calibration using multiple recording devices |
US10735879B2 (en) | 2016-01-25 | 2020-08-04 | Sonos, Inc. | Calibration based on grouping |
US11006232B2 (en) | 2016-01-25 | 2021-05-11 | Sonos, Inc. | Calibration based on audio content |
US11516612B2 (en) | 2016-01-25 | 2022-11-29 | Sonos, Inc. | Calibration based on audio content |
US10003899B2 (en) | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
US11106423B2 (en) | 2016-01-25 | 2021-08-31 | Sonos, Inc. | Evaluating calibration of a playback device |
US10390161B2 (en) | 2016-01-25 | 2019-08-20 | Sonos, Inc. | Calibration based on audio content type |
US11184726B2 (en) | 2016-01-25 | 2021-11-23 | Sonos, Inc. | Calibration using listener locations |
US11379179B2 (en) | 2016-04-01 | 2022-07-05 | Sonos, Inc. | Playback device calibration based on representative spectral characteristics |
US10405116B2 (en) | 2016-04-01 | 2019-09-03 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US11212629B2 (en) | 2016-04-01 | 2021-12-28 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US10884698B2 (en) | 2016-04-01 | 2021-01-05 | Sonos, Inc. | Playback device calibration based on representative spectral characteristics |
US11736877B2 (en) | 2016-04-01 | 2023-08-22 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9864574B2 (en) | 2016-04-01 | 2018-01-09 | Sonos, Inc. | Playback device calibration based on representation spectral characteristics |
US10402154B2 (en) | 2016-04-01 | 2019-09-03 | Sonos, Inc. | Playback device calibration based on representative spectral characteristics |
US10880664B2 (en) | 2016-04-01 | 2020-12-29 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US10299054B2 (en) | 2016-04-12 | 2019-05-21 | Sonos, Inc. | Calibration of audio playback devices |
US10750304B2 (en) | 2016-04-12 | 2020-08-18 | Sonos, Inc. | Calibration of audio playback devices |
US10045142B2 (en) | 2016-04-12 | 2018-08-07 | Sonos, Inc. | Calibration of audio playback devices |
US11218827B2 (en) | 2016-04-12 | 2022-01-04 | Sonos, Inc. | Calibration of audio playback devices |
US11889276B2 (en) | 2016-04-12 | 2024-01-30 | Sonos, Inc. | Calibration of audio playback devices |
US11337017B2 (en) | 2016-07-15 | 2022-05-17 | Sonos, Inc. | Spatial audio correction |
US10129678B2 (en) | 2016-07-15 | 2018-11-13 | Sonos, Inc. | Spatial audio correction |
US10448194B2 (en) | 2016-07-15 | 2019-10-15 | Sonos, Inc. | Spectral correction using spatial calibration |
US10750303B2 (en) | 2016-07-15 | 2020-08-18 | Sonos, Inc. | Spatial audio correction |
US11736878B2 (en) | 2016-07-15 | 2023-08-22 | Sonos, Inc. | Spatial audio correction |
US11531514B2 (en) | 2016-07-22 | 2022-12-20 | Sonos, Inc. | Calibration assistance |
US11237792B2 (en) | 2016-07-22 | 2022-02-01 | Sonos, Inc. | Calibration assistance |
US10853022B2 (en) | 2016-07-22 | 2020-12-01 | Sonos, Inc. | Calibration interface |
US10372406B2 (en) | 2016-07-22 | 2019-08-06 | Sonos, Inc. | Calibration interface |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US11698770B2 (en) | 2016-08-05 | 2023-07-11 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US10853027B2 (en) | 2016-08-05 | 2020-12-01 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
US11206484B2 (en) | 2018-08-28 | 2021-12-21 | Sonos, Inc. | Passive speaker authentication |
US10582326B1 (en) | 2018-08-28 | 2020-03-03 | Sonos, Inc. | Playback device calibration |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
US11877139B2 (en) | 2018-08-28 | 2024-01-16 | Sonos, Inc. | Playback device calibration |
US10848892B2 (en) | 2018-08-28 | 2020-11-24 | Sonos, Inc. | Playback device calibration |
US11350233B2 (en) | 2018-08-28 | 2022-05-31 | Sonos, Inc. | Playback device calibration |
US11374547B2 (en) | 2019-08-12 | 2022-06-28 | Sonos, Inc. | Audio calibration of a portable playback device |
US10734965B1 (en) | 2019-08-12 | 2020-08-04 | Sonos, Inc. | Audio calibration of a portable playback device |
US11728780B2 (en) | 2019-08-12 | 2023-08-15 | Sonos, Inc. | Audio calibration of a portable playback device |
US11983458B2 (en) | 2022-12-14 | 2024-05-14 | Sonos, Inc. | Calibration assistance |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010081124A (en) | Calibration method for intercom device | |
US10075783B2 (en) | Acoustically summed reference microphone for active noise control | |
US9531433B2 (en) | Echo cancellation methodology and assembly for electroacoustic communication apparatuses | |
US20140226836A1 (en) | Voice input device and noise suppression method | |
US20090103704A1 (en) | Voice information processing device and wiring system using the same device | |
CN111630871B (en) | Sound output device | |
US20070071273A1 (en) | Speaker | |
JP4893230B2 (en) | Telephone device | |
JP5227123B2 (en) | Intercom device | |
JP5372529B2 (en) | Soundproof box | |
WO2019146095A1 (en) | Audio output device | |
US20220394392A1 (en) | Pickup sensor and bone-conduction speaker | |
KR102392460B1 (en) | Apparatus and method of reducing noise | |
TW201340738A (en) | Speaker damper and speaker apparatus having the damper | |
JP4966098B2 (en) | Telephone device | |
JP3976077B1 (en) | Telephone device | |
JP4432959B2 (en) | Telephone device | |
JP4853382B2 (en) | Telephone device | |
JP2009055483A (en) | Intercom device | |
JP2008022515A (en) | Speech apparatus | |
JP3976075B2 (en) | Intercom device | |
JP4976921B2 (en) | Telephone device | |
JP2008131508A (en) | Speech communication device | |
JP4989372B2 (en) | Telephone device | |
JP2015220499A (en) | Acoustic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100716 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110222 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20120112 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120717 |