JP2010081124A - Calibration method for intercom device - Google Patents

Calibration method for intercom device Download PDF

Info

Publication number
JP2010081124A
JP2010081124A JP2008244971A JP2008244971A JP2010081124A JP 2010081124 A JP2010081124 A JP 2010081124A JP 2008244971 A JP2008244971 A JP 2008244971A JP 2008244971 A JP2008244971 A JP 2008244971A JP 2010081124 A JP2010081124 A JP 2010081124A
Authority
JP
Japan
Prior art keywords
sound
speaker
microphones
coefficient
delay time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008244971A
Other languages
Japanese (ja)
Inventor
Kosaku Kitada
耕作 北田
Osamu Akasaka
修 赤坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Electric Works Co Ltd filed Critical Panasonic Electric Works Co Ltd
Priority to JP2008244971A priority Critical patent/JP2010081124A/en
Publication of JP2010081124A publication Critical patent/JP2010081124A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a calibration method for an intercom device capable of easily executing the calibration of the microphone of the intercom device, for preventing howling by canceling speaker sound from transmission signals using a plurality of microphones. <P>SOLUTION: The calibration method for the intercom device includes: drive processes S2-S7 for driving the speaker SP of the intercom device A at a specified frequency; an amplitude ratio data deriving process S8 for deriving the data of the amplitude ratio of respective sound signals of microphones M1 and M2 for sound from the speaker SP; a delay time data deriving process (S9) for deriving the data of the delay time on the basis of the phase of the respective sound signals of the microphones M1 and M2 to the sound from the speaker SP; an optimum coefficient calculation process (S10) for calculating a coefficient optimum for the arithmetic processing of canceling the speaker sound; and a storage process (S11) for storing the calculated optimum coefficient in the storage means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、インターホン装置用キャリブレーション方法に関するものである。   The present invention relates to a calibration method for an intercom device.

従来、双方向の通話を行うインターホン装置があり、他の場所に設置されたインターホン装置からの音声を出力するスピーカや、他のインターホン装置へ伝達する音声を入力するマイクロホン等を備えている。   2. Description of the Related Art Conventionally, there is an interphone device that performs two-way communication, and includes a speaker that outputs sound from an interphone device installed in another place, a microphone that inputs sound transmitted to another interphone device, and the like.

そして、スピーカから発生した音声がマイクロホンに回り込むとハウリングが生じることになるから、様々なハウリング防止対策が採られている。例えば、スピーカと一対のマイクロホンとを備えて、両マイクロホンとスピーカとの距離の差に相当する音波の遅延時間だけスピーカに近いほうのマイクロホンの出力を遅延させる遅延回路と、スピーカからの音声に対する両マイクロホンの出力レベルを一致させるレベル調整増幅回路と、遅延回路とレベル調整増幅回路とを通った両マイクロホンの出力を両入力とする差動増幅回路とを設け、差動増幅回路の出力を送話信号とすることで、送話信号からスピーカ音をキャンセルしてハウリング防止を図るインターホン装置が提案された。   Since howling occurs when the sound generated from the speaker wraps around the microphone, various measures for preventing howling are taken. For example, a speaker and a pair of microphones are provided, a delay circuit that delays the output of a microphone closer to the speaker by a delay time of sound waves corresponding to the difference in distance between the two microphones and the speaker, and both of the sounds from the speaker. A level adjustment amplifier circuit that matches the output level of the microphone and a differential amplifier circuit that uses the outputs of both microphones that have passed through the delay circuit and the level adjustment amplifier circuit as both inputs are provided, and the output of the differential amplifier circuit is transmitted. An intercom device has been proposed that uses a signal to cancel speaker sound from a transmitted signal to prevent howling.

このインターホン装置では、両マイクロホンでスピーカからの音声を拾った後、遅延およびレベル調整を行なって両マイクロホンに入力されるスピーカからの音声成分を差動増幅回路で相殺することで、スピーカからの音声成分のみを除去して(キャンセル処理)、ハウリングを防止しようとしている(例えば、特許文献1参照)。   In this intercom device, after picking up the sound from the speakers with both microphones, delay and level adjustment are performed, and the sound components from the speakers that are input to both microphones are canceled by the differential amplifier circuit. Only the components are removed (cancellation process) to prevent howling (for example, see Patent Document 1).

このような複数のマイクロホンを持ったインターホン装置では、各マイクロホンの感度等をキャリブレーションして、スピーカ音のキャンセル効果を保障する必要があり、例えば実際に使用されるフィールドで定期的にキャリブレーションする方法(例えば、特許文献2参照)や、製造工程において複数のレンジを切り替えてキャリブレーションを行う方法(例えば、特許文献3参照)が提案されている。
特許3226121号公報 特開2004−343700号公報 特開2006−135551号公報
In such an interphone device having a plurality of microphones, it is necessary to calibrate the sensitivity of each microphone to ensure the canceling effect of the speaker sound. For example, the calibration is periodically performed in a field actually used. A method (for example, refer to Patent Document 2) and a method for performing calibration by switching a plurality of ranges in a manufacturing process (for example, refer to Patent Document 3) have been proposed.
Japanese Patent No. 3226121 JP 2004-343700 A JP 2006-135551 A

しかしながら、上記特許文献2のように実際に使用されるフィールドで定期的にキャリブレーションする方法は、インターホン装置のような設備機器には適さず、また上記特許文献3のように製造工程において複数のレンジを切り替えてキャリブレーションを行う方法では、大掛かりな測定装置が必要となり、作業時間が長くなっていた。   However, the method of periodically calibrating in the field actually used as in the above-mentioned Patent Document 2 is not suitable for equipment such as an interphone device, and a plurality of processes in the manufacturing process as in the above-mentioned Patent Document 3. In the method of performing calibration by switching the range, a large measuring device is required, and the work time is long.

而して、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置に対して、各マイクロホンのキャリブレーションを簡易に行う方法が求められている。   Thus, there is a need for a method for easily calibrating each microphone for an interphone device that prevents howling by canceling speaker sound from a transmission signal using a plurality of microphones.

本発明は、上記事由に鑑みてなされたものであり、その目的は、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができるインターホン装置用キャリブレーション方法を提供することにある。   The present invention has been made in view of the above reasons, and its purpose is to easily perform microphone calibration of an intercom device that prevents howling by canceling speaker sound from a transmission signal using a plurality of microphones. An object of the present invention is to provide a calibration method for an intercom device that can be performed.

請求項1の発明は、伝達された音声情報によって音声を発する発音体と、音声を集音して音声信号を出力する第1,第2のマイクロホンと、第1,第2のマイクロホンと発音体との各距離の差に相当する音波の伝達時間である遅延時間、および発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅比から算出される係数を用いた演算処理を、第1,第2のマイクロホンが出力する音声信号に対して施すことで、発音体が発した音をキャンセルした音声信号を生成する信号処理部と、信号処理部が演算処理に用いる係数を記憶した記憶部と、を具備したインターホン装置に対してキャリブレーションを行うインターホン装置用キャリブレーション方法であって、インターホン装置に発音体、第1,第2のマイクロホン、信号処理部、記憶部を組み込んだ状態で発音体を特定の周波数で駆動する駆動工程と、特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅に基づいて、前記振幅比のデータを導出する振幅比データ導出工程と、特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の位相に基づいて、前記遅延時間のデータを導出する遅延時間データ導出工程と、前記導出された遅延時間および前記振幅比の各データに基づいて、信号処理部が前記演算処理に用いる係数を算出する最適係数算出工程と、前記算出した係数を記憶部に格納する記憶工程と、を含むことを特徴とする。   According to the first aspect of the present invention, there is provided a sounding body that emits sound based on transmitted sound information, first and second microphones that collect sound and output a sound signal, and first and second microphones and sounding body. Calculation processing using a coefficient calculated from a delay time, which is a transmission time of a sound wave corresponding to a difference in distance from each other, and an amplitude ratio of each sound signal of the first and second microphones to sound from the sounding body. A signal processing unit that generates an audio signal in which the sound emitted by the sounding body is canceled by applying it to the audio signals output from the first and second microphones, and a coefficient used by the signal processing unit for arithmetic processing A calibration method for an intercom device that calibrates an intercom device including a storage unit, the intercom device having a sound generator, first and second microphones, and a signal A driving step of driving the sounding body at a specific frequency in a state where the processing unit and the storage unit are incorporated, and the amplitude of each sound signal of the first and second microphones with respect to the sound from the sounding body driven at the specific frequency Based on the amplitude ratio data deriving step for deriving the amplitude ratio data, and the delay based on the phases of the audio signals of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency. A delay time data deriving step for deriving time data; an optimum coefficient calculating step for calculating a coefficient used by the signal processing unit for the arithmetic processing based on each of the derived delay time and the amplitude ratio data; and A storage step of storing the calculated coefficient in the storage unit.

この発明によれば、インターホン装置は、発音体、第1,第2のマイクロホン、信号処理部が組み付けられた状態でキャリブレーションされており、インターホン装置に組み込まれた発音体が発する音を用いて、発音体が発した音のキャンセル処理を行う演算処理に用いる係数を算出するので、別途発音体を用意する必要がなく、キャリブレーション装置の構成を簡略化できる。すなわち、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができる
請求項2の発明は、請求項1において、前記駆動工程は、複数の周波数から順次選択される特定の周波数で前記発音体を駆動し、前記振幅比データ導出工程および遅延時間データ導出工程は、複数の周波数から順次選択される特定の周波数毎に前記振幅比および前記遅延時間の各データを導出することを特徴とする。
According to this invention, the intercom device is calibrated in a state where the sounding body, the first and second microphones, and the signal processing unit are assembled, and the sound generated by the sounding body incorporated in the interphone device is used. Since the coefficient used for the calculation process for canceling the sound emitted by the sounding body is calculated, it is not necessary to prepare a sounding body separately, and the configuration of the calibration apparatus can be simplified. That is, the microphone of the intercom device that prevents howling by canceling the speaker sound from the transmission signal using a plurality of microphones can be easily calibrated. The driving step drives the sounding body at a specific frequency sequentially selected from a plurality of frequencies, and the amplitude ratio data deriving step and the delay time data deriving step are performed for each specific frequency sequentially selected from the plurality of frequencies. Each data of the amplitude ratio and the delay time is derived.

この発明によれば、第1,第2のマイクロホンの音声信号が有する周波数特性を考慮して、各データを導出するので、キャリブレーションの精度が高くなる。   According to the present invention, since each data is derived in consideration of the frequency characteristics of the audio signals of the first and second microphones, the accuracy of calibration is increased.

請求項3の発明は、請求項2において、前記最適係数算出工程は、複数の周波数から順次選択される特定の周波数毎に導出された前記振幅比および前記遅延時間の各データに基づいて、前記特定の周波数毎に前記演算処理に用いる第1の係数を算出し、当該特定の周波数毎に算出した複数の第1の係数を平均化処理して前記演算処理に用いる第2の係数を算出し、前記記憶工程は、第2の係数を前記記憶部に格納することを特徴とする。   According to a third aspect of the present invention, in the second aspect, the optimum coefficient calculating step is based on the amplitude ratio and the delay time data derived for each specific frequency sequentially selected from a plurality of frequencies. A first coefficient used for the calculation process is calculated for each specific frequency, and a plurality of first coefficients calculated for the specific frequency are averaged to calculate a second coefficient used for the calculation process. The storing step stores the second coefficient in the storage unit.

この発明によれば、また、第1の係数を平均化処理した第2の係数のみを算出するので、キャリブレーションに要する時間を短縮できる。   According to this invention, since only the second coefficient obtained by averaging the first coefficient is calculated, the time required for calibration can be shortened.

請求項4の発明は、請求項3において、前記記憶工程は、第2の係数が所定の範囲内であれば、当該第2の係数を記憶部に格納し、第2の係数が所定の範囲外であれば、当該第2の係数を記憶部に格納しないことを特徴とする。   According to a fourth aspect of the present invention, in the third aspect, if the second coefficient is within a predetermined range, the storing step stores the second coefficient in the storage unit, and the second coefficient is within the predetermined range. If it is outside, the second coefficient is not stored in the storage unit.

この発明によれば、不適正な値である第2の係数は記憶部に格納されないので、インターホン装置の信頼性を確保することができる。   According to the present invention, since the second coefficient that is an inappropriate value is not stored in the storage unit, it is possible to ensure the reliability of the intercom apparatus.

請求項5の発明は、請求項1乃至4いずれかにおいて、前記信号処理部は、第1,第2のマイクロホンの各音声信号をA/D変換するA/D変換手段を備え、前記記憶部はA/D変換手段のサンプリング時間を予め記憶しており、前記最適係数算出工程は、前記遅延時間および前記振幅比の各データに加えて記憶部から読み出したサンプリング時間に基づいて、前記演算処理に用いる係数を算出することを特徴とする。   According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the signal processing unit includes A / D conversion means for A / D converting each audio signal of the first and second microphones, and the storage unit. Stores the sampling time of the A / D conversion means in advance, and the optimum coefficient calculation step performs the arithmetic processing based on the sampling time read from the storage unit in addition to the delay time and the amplitude ratio data. The coefficient used for is calculated.

この発明によれば、複数種類のインターホン装置に対しても(例えば、第1,第2のマイクロホン間の距離が異なる複数機種等)、キャリブレーションを行うことができ、汎用性が高まる。   According to the present invention, calibration can be performed for a plurality of types of intercom apparatuses (for example, a plurality of models having different distances between the first and second microphones), and versatility is enhanced.

以上説明したように、本発明では、複数のマイクロホンを用いて送話信号からスピーカ音をキャンセルすることでハウリング防止を図るインターホン装置のマイクロホンのキャリブレーションを簡易に行うことができるという効果がある。   As described above, according to the present invention, there is an effect that the microphone can be easily calibrated in the interphone apparatus that prevents howling by canceling the speaker sound from the transmission signal using a plurality of microphones.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施形態1)
本実施形態のインターホン装置Aは図13〜図15に示され、本装置の外郭を形成する装置本体A1と、装置本体A1に取り付けられるスピーカモジュールA2、音声処理モジュールA3、マイクロホンM1(第1のマイクロホン),マイクロホンM2(第2のマイクロホン)、各種ボタンスイッチSW1〜SW3とで構成されており、建物内の適所において埋め込み配設されたボックス90の前面に取り付けられる。そして、ボックス90を介して配線された情報線Lsが接続され、部屋間で情報線Lsを介した双方向の通話が可能なインターホン装置として機能する。インターホン装置Aの電源は、設置場所の近傍に設けたコンセントから供給されるか、あるいは情報線Lsを介して供給されてもよい。なお、図14において、後述するスピーカSPの構成要件の一部(ヨーク20や永久磁石22等)は省略している。
(Embodiment 1)
The interphone apparatus A of the present embodiment is shown in FIGS. 13 to 15, and includes an apparatus main body A1 that forms the outline of the apparatus, a speaker module A2 that is attached to the apparatus main body A1, a sound processing module A3, a microphone M1 (first Microphone), microphone M2 (second microphone), and various button switches SW1 to SW3, which are attached to the front face of a box 90 embedded and disposed at an appropriate place in the building. Then, the information line Ls wired through the box 90 is connected, and functions as an intercom device capable of two-way communication between the rooms via the information line Ls. The power supply of the intercom apparatus A may be supplied from an outlet provided near the installation location or may be supplied via the information line Ls. In FIG. 14, some of the constituent elements of the speaker SP described later (such as the yoke 20 and the permanent magnet 22) are omitted.

装置本体A1は、ABS(Acrylonitrile-Butadiene-Styrene resin)またはPC−ABS(PolyCarbonate−Acrylonitrile-Butadiene-Styreneresin)を成形して、後面および上下面を開放した略函状に形成され、その側面下部から後方に延設されて外側に係止爪を具備する係止片101がボックス90の図示しない係止突起に係止し、さらに上下端略中央に形成された切欠部102を介して、図示しない取付ねじをボックス90の図示しないねじ孔に螺合させることで、装置本体A1がボックス90に取り付けられる。そして、装置本体A1は、その上下端に取付孔103を設けており、取付孔103にねじを挿通させることで壁面等の構造物に固定される。   The apparatus main body A1 is formed in a substantially box shape with the rear surface and upper and lower surfaces opened by molding ABS (Acrylonitrile-Butadiene-Styrene resin) or PC-ABS (PolyCarbonate-Acrylonitrile-Butadiene-Styreneresin). A locking piece 101 extending rearward and having a locking claw on the outside is locked to a locking projection (not shown) of the box 90, and is further not shown through a notch 102 formed in the approximate center of the upper and lower ends. The apparatus main body A1 is attached to the box 90 by screwing the attachment screw into a screw hole (not shown) of the box 90. And the apparatus main body A1 is provided with attachment holes 103 at the upper and lower ends thereof, and is fixed to a structure such as a wall surface by inserting screws through the attachment holes 103.

また、装置本体A1の側面上部から後方へ延設されて内側に係止爪を具備する係止片104,105によって函状のスピーカモジュールA2の後面が係止されることによって、スピーカモジュールA2が装置本体A1の内側に取り付けられ、スピーカモジュールA2が対向する装置本体A1の前面には、スピーカモジュールA2が具備するスピーカSPからの音を通過させるための複数の音孔7が設けられている。この音孔7は、装置本体A1の前面上部の略中央に、複数の音孔7が略円状に形成されており、さらにその周囲にはディンプル加工による複数の凹部7aが形成されている。   Further, the rear surface of the box-shaped speaker module A2 is locked by the locking pieces 104 and 105 that extend rearward from the upper side of the side surface of the apparatus main body A1 and have locking claws on the inner side, whereby the speaker module A2 is A plurality of sound holes 7 for allowing sound from the speaker SP included in the speaker module A2 to pass through are provided on the front surface of the apparatus main body A1 attached to the inside of the apparatus main body A1 and facing the speaker module A2. In the sound hole 7, a plurality of sound holes 7 are formed in a substantially circular shape in the approximate center of the upper front surface of the apparatus main body A1, and a plurality of recesses 7a are formed around the sound holes by dimple processing.

また、装置本体A1の側面下部から後方へ延設されて内側に係止爪を具備する係止片106によって函状の音声処理モジュールA3の後面が係止されることによって、音声処理モジュールA3が装置本体A1の内側に取り付けられる。音声処理モジュールA3が対向する装置本体A1の前面には開口部110,111,112が設けられており、通話ボタンSW1、警報停止ボタンSW2、室内呼び出しボタンSW3の裏面に各々形成された突起が各開口部110,111,112に前方から挿通し、音声処理モジュールA3の前面に取り付けられ、装置本体A1の下部に形成された一対の取付孔103が通話ボタンSW1によって覆われる。   Further, the rear surface of the box-shaped sound processing module A3 is locked by a locking piece 106 that extends rearward from the lower side of the side surface of the apparatus main body A1 and has a locking claw on the inner side. It is attached inside the apparatus main body A1. Openings 110, 111, and 112 are provided on the front surface of the apparatus main body A1 facing the voice processing module A3, and protrusions formed on the back surfaces of the call button SW1, the alarm stop button SW2, and the indoor call button SW3, respectively. A pair of attachment holes 103 formed in the lower portion of the apparatus main body A1 are covered with the call button SW1 through the openings 110, 111, 112 from the front and attached to the front surface of the voice processing module A3.

また、装置本体A1の上部には、複数の凹部7aが形成されたプレートA4が前方から係止によって取り付けられ、装置本体A1の上部に形成された一対の取付孔103がプレートA4によって覆われる。   Further, a plate A4 formed with a plurality of recesses 7a is attached to the upper part of the apparatus main body A1 by locking from the front, and a pair of attachment holes 103 formed in the upper part of the apparatus main body A1 are covered with the plate A4.

さらに、図16(a)〜(c)に示すように(なお、図16(b)のZ1−Z1断面が図16(a)に示され、図16(b)のZ2−Z2断面が図16(c)に示される)、スピーカモジュールA2が対向する装置本体A1の内面において、略円状に複数形成された音孔7の略中央に1つ目の円柱型のボス71が突設され、音孔7の側方(音孔7に対向しない箇所)に2つ目の円柱型のボス72が突設されており、ボス71の軸方向の端面に形成された円状の凹部71aにマイクロホンM1が取り付けられ、ボス72の軸方向の端面に形成された円状の凹部72aにマイクロホンM2が取り付けられており、マイクロホンM1,M2の位置決めを容易に行うことができる。ここで、マイクロホンM1,M2は円盤状の外郭を有し、その外周面にゴムキャップGを設けており、マイクロホンM1,M2を凹部71a,72aに圧入すれば、ゴムキャップGの弾性によって凹部71a,72a内に固定されるので、接着剤等の固定手段を用いることなく、組み立てが容易になる。または、凹部71a,72aの内側面に弾性を有するエラストマを形成すれば、マイクロホンM1,M2にゴムキャップGを設ける必要がなく、マイクロホンM1,M2を凹部71a,72a内に容易に固定することができる。さらには、ボス71,72全体が弾性を有するエラストマで形成されてもよい。   Further, as shown in FIGS. 16A to 16C (the Z1-Z1 cross section of FIG. 16B is shown in FIG. 16A, and the Z2-Z2 cross section of FIG. 16B is shown). 16 (c)), a first cylindrical boss 71 projects from the inner surface of the apparatus main body A1 facing the speaker module A2 substantially at the center of the sound hole 7 formed in a substantially circular shape. A second cylindrical boss 72 projects from the side of the sound hole 7 (where it does not face the sound hole 7), and is formed in a circular recess 71a formed on the end surface of the boss 71 in the axial direction. A microphone M1 is attached, and a microphone M2 is attached to a circular recess 72a formed on an end surface of the boss 72 in the axial direction, so that the microphones M1 and M2 can be easily positioned. Here, the microphones M1 and M2 have a disk-shaped outline, and a rubber cap G is provided on the outer peripheral surface thereof. When the microphones M1 and M2 are press-fitted into the recesses 71a and 72a, the recesses 71a are caused by the elasticity of the rubber cap G. , 72a, the assembly is facilitated without using a fixing means such as an adhesive. Alternatively, if an elastic elastomer is formed on the inner surfaces of the recesses 71a and 72a, it is not necessary to provide the rubber caps G on the microphones M1 and M2, and the microphones M1 and M2 can be easily fixed in the recesses 71a and 72a. it can. Furthermore, the bosses 71 and 72 as a whole may be formed of an elastic elastomer.

さらに、マイクロホンM1,M2からは音声信号を出力する一対の配線W1,W2を各々導出しており、配線W1,W2は、凹部71a,72aから下方へ形成された溝部71b,72b内に配設されて、音声処理モジュールM3に引き込まれており、スピーカモジュールA2との干渉を防止するとともに、配線経路を確保している。また、マイクロホンM1,M2は、バックエレクトレット型のエレクトレットコンデンサマイクロホンで構成されている。   Further, a pair of wirings W1 and W2 for outputting audio signals are led out from the microphones M1 and M2, respectively, and the wirings W1 and W2 are disposed in grooves 71b and 72b formed downward from the recesses 71a and 72a. Thus, it is drawn into the audio processing module M3, preventing interference with the speaker module A2 and securing a wiring path. The microphones M1 and M2 are back electret type electret condenser microphones.

而して、装置本体A1の内面には、スピーカモジュールA2、音声処理モジュールA3、マイクロホンM1,M2が取り付けられており、ボックス90内に設けた図示しない電源回路が、外部から供給される商用電源ACを安定した直流電圧からなる内部回路の動作電源に変換して、各部へ供給している。   Thus, the speaker module A2, the sound processing module A3, and the microphones M1 and M2 are attached to the inner surface of the apparatus main body A1, and a power supply circuit (not shown) provided in the box 90 is supplied with commercial power supplied from the outside. The AC is converted to an operating power source for an internal circuit composed of a stable DC voltage and supplied to each unit.

スピーカモジュールA2は、音孔7に対向して装置本体A1の内面に取り付けられており、図14に示すように、後面に開口を設けて樹脂成形されたボディA21と、ボディA21の開口に覆設する平面状に樹脂成形されたカバーA22とで幅40mm×高さ30mm×厚さ8mmのモジュール本体A20を構成し、モジュール本体A20内にスピーカSPを備える。   The speaker module A2 is attached to the inner surface of the apparatus main body A1 so as to face the sound hole 7, and as shown in FIG. 14, a resin-molded body A21 having an opening on the rear surface and the opening of the body A21 are covered. A module main body A20 having a width of 40 mm, a height of 30 mm, and a thickness of 8 mm is constituted by the cover A22 formed by resin molding in a flat shape, and a speaker SP is provided in the module main body A20.

スピーカSPは、図13に示すように、ボディA21の前面に設けた円形の凹部11の底面に形成された冷間圧延鋼板(SPCC,SPCEN)、電磁軟鉄(SUY)等の厚み0.8mm程度の鉄系材料で形成された円環状のヨーク20と、ヨーク20の外周縁から前方に向かって延設された円筒状の支持体21とが、ボディA21の凹部11内に一体形成されている。   As shown in FIG. 13, the speaker SP has a thickness of about 0.8 mm made of cold rolled steel plate (SPCC, SPCEN), electromagnetic soft iron (SUY) or the like formed on the bottom surface of the circular recess 11 provided on the front surface of the body A21. An annular yoke 20 made of an iron-based material and a cylindrical support 21 extending forward from the outer peripheral edge of the yoke 20 are integrally formed in the recess 11 of the body A21. .

ヨーク20の円環内の開口20aにはNdFeBで形成された円柱型永久磁石22(例えば、残留磁束密度1.39T〜1.43T)を配置し、ドーム型の振動板23の外周側の縁部が支持体21の段差面21aに接着されている。   A cylindrical permanent magnet 22 (for example, residual magnetic flux density of 1.39 T to 1.43 T) formed of NdFeB is disposed in the opening 20 a in the ring of the yoke 20, and the outer peripheral edge of the dome-shaped diaphragm 23. The part is bonded to the step surface 21 a of the support 21.

振動板23は、PET(PolyEthyleneTerephthalate)またはPEI(Polyetherimide)等の熱可塑性プラスチック(例えば、厚み12μm〜50μm)で形成される。振動板23の背面には筒状のボビン24が固定されており、このボビン24の後端にはクラフト紙の紙管にポリウレタン銅線(例えば、φ0.05mm)を巻回することによって形成されたボイスコイル25が設けられている。ボビン24およびボイスコイル25は、内側に円柱型永久磁石22を配置し、ヨーク20に対向して設けられており、ヨーク20の近傍を前後方向に自在に移動する。   The diaphragm 23 is formed of a thermoplastic plastic (for example, a thickness of 12 μm to 50 μm) such as PET (PolyEthyleneTerephthalate) or PEI (Polyetherimide). A cylindrical bobbin 24 is fixed to the rear surface of the diaphragm 23, and is formed by winding a polyurethane copper wire (for example, φ0.05 mm) around a paper tube of kraft paper at the rear end of the bobbin 24. A voice coil 25 is provided. The bobbin 24 and the voice coil 25 are provided with a cylindrical permanent magnet 22 on the inner side and are provided to face the yoke 20, and freely move in the front-rear direction in the vicinity of the yoke 20.

またボディA21の前面において、図14に示すように、スピーカSPの側方には端子板30が配置され、この端子板30上に設けた一対の端子部にスピーカSPのボイスコイル25の一対のリード線が半田付けで接続され、音声処理モジュールA3からの出力配線も同様に半田付けで接続される。   Further, as shown in FIG. 14, a terminal plate 30 is disposed on the side of the speaker SP on the front surface of the body A 21, and a pair of terminal portions provided on the terminal plate 30 are connected to a pair of voice coils 25 of the speaker SP. Lead wires are connected by soldering, and output wiring from the audio processing module A3 is similarly connected by soldering.

そして、ボイスコイル25のポリウレタン銅線に音声信号を入力すると、この音声信号の電流と永久磁石22の磁界とにより、ボイスコイル25に電磁力が発生するため、ボビン24が振動板23を伴なって前後方向に振動させられる。このとき、振動板23から音声信号に応じた音が発せられる。すなわち、動電型のスピーカSPが構成される。   When an audio signal is input to the polyurethane copper wire of the voice coil 25, an electromagnetic force is generated in the voice coil 25 due to the current of the audio signal and the magnetic field of the permanent magnet 22, so the bobbin 24 is accompanied by the diaphragm 23. To vibrate in the front-rear direction. At this time, a sound corresponding to the audio signal is emitted from the diaphragm 23. That is, an electrodynamic speaker SP is configured.

モジュール本体A20にスピーカSPが取り付けられると、モジュール本体A20の後面内側および側面内側とスピーカSPの裏面側(ヨーク20側)とで囲まれた空間である後気室Brが形成される。後気室Brは、スピーカSPの振動板23と支持体21の段差面21aとが密着し、さらにモジュール本体A20のボディA21とカバーA22とが密着することによって、モジュール本体A20外と絶縁した空間になる。   When the speaker SP is attached to the module main body A20, a rear air chamber Br which is a space surrounded by the rear inner side and the inner side surface of the module main body A20 and the rear surface side (yoke 20 side) of the speaker SP is formed. The rear air chamber Br is a space that is insulated from the outside of the module main body A20 by closely contacting the vibration plate 23 of the speaker SP and the stepped surface 21a of the support 21 and further closely contacting the body A21 of the module main body A20 and the cover A22. become.

このスピーカモジュールA2を装置本体A1に取り付けると、図13に示すように、装置本体A1の内面とスピーカSPの表面側(振動板23側)とで囲まれて、後気室Brとは絶縁された空間である前気室Bfが形成され、装置本体A1裏面のボス71に取り付けられたマイクロホンM1は、その集音面が振動板23の略中心に対向して前気室Bf内に配置され、スピーカSPからの音声に対して高い指向性を有する。   When the speaker module A2 is attached to the apparatus main body A1, as shown in FIG. 13, it is surrounded by the inner surface of the apparatus main body A1 and the surface side of the speaker SP (diaphragm 23 side), and is insulated from the rear chamber Br. The microphone M1 is formed in the front air chamber Bf, and the microphone M1 attached to the boss 71 on the back surface of the apparatus main body A1 is disposed in the front air chamber Bf with the sound collection surface facing the substantial center of the diaphragm 23. High directivity with respect to the sound from the speaker SP.

また、装置本体A1裏面のボス72は、スピーカモジュールA2のボディA21前面に設けた凹部31内に嵌まり、ボス72が凹部31に嵌合することで、スピーカモジュールA2を装置本体A1に組み付ける際に位置決めを容易に行うことができ、組み付け作業をスムーズに行うことができる。さらに、ボス72に取り付けられたマイクロホンM2は、その集音面を装置本体A1の前面に穿設された集音孔8を介して外部に連通しているので、集音孔8を介して伝達される、インターホン装置Aの前方に位置する話者からの音声に対して高い指向性を有している。   Further, the boss 72 on the back surface of the apparatus main body A1 fits into the recess 31 provided on the front surface of the body A21 of the speaker module A2, and the boss 72 fits into the recess 31 so that the speaker module A2 is assembled to the apparatus main body A1. Therefore, the positioning can be easily performed, and the assembly work can be performed smoothly. Further, since the microphone M2 attached to the boss 72 communicates with the outside through the sound collection hole 8 drilled in the front surface of the apparatus main body A1, the microphone M2 is transmitted through the sound collection hole 8. And has high directivity with respect to the voice from the speaker located in front of the intercom device A.

次に、音声処理モジュールA3は、図17に示すように、通信部81、音声スイッチ部82,83、増幅部84、信号処理部85、記憶部86を備えたICで構成され、他の部屋等に設置されているインターホン装置Aから情報線Lsを介して送信された音声信号は、通信部81で受信され、音声スイッチ部82を介して増幅部84で増幅された後、スピーカSPから出力される。また、通話ボタンSW1を操作することで通話可能状態となり、マイクロホンM1,マイクロホンM2から入力された各音声信号は信号処理部85で後述する信号処理を施された後、音声スイッチ部83を通過し、通信部81から情報線Lsを介して他の部屋等に設置されているインターホン装置Aへ送信される。また、警報停止ボタンSW2は他の端末装置から情報線Lsを介して受信した警報信号による発報を停止する際に操作し、室内呼び出しボタンSW3は他の部屋に設置したインターホン装置Aを呼び出す際に操作する。   Next, as shown in FIG. 17, the audio processing module A3 is composed of an IC including a communication unit 81, audio switch units 82 and 83, an amplification unit 84, a signal processing unit 85, and a storage unit 86. The audio signal transmitted from the intercom apparatus A installed in the communication line via the information line Ls is received by the communication unit 81, amplified by the amplification unit 84 via the audio switch unit 82, and then output from the speaker SP. Is done. Further, by operating the call button SW1, a call can be made, and each audio signal input from the microphone M1 and the microphone M2 is subjected to signal processing to be described later in the signal processing unit 85, and then passes through the audio switch unit 83. The data is transmitted from the communication unit 81 to the intercom device A installed in another room or the like via the information line Ls. The alarm stop button SW2 is operated to stop the alarm signal received from the other terminal device via the information line Ls, and the indoor call button SW3 is used to call the interphone device A installed in another room. To operate.

そして、スピーカSPの振動板23の中心から各マイクロホンM1,M2の集音面の中心までの距離をそれぞれX1,X2とすると、X1<X2となり、本実施形態では、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止するために、以下の構成を備えている。   If the distances from the center of the diaphragm 23 of the speaker SP to the centers of the sound collecting surfaces of the microphones M1 and M2 are X1 and X2, respectively, X1 <X2, and in this embodiment, the sound output of the speaker SP is the microphone. In order to prevent howling caused by picking up by M1 and M2, the following configuration is provided.

まず、音声処理モジュールA3に収納されている信号処理部85は、図18に示すように、マイクロホンM1,M2の各音声信号をA/D変換するA/D変換回路85a,85bと、A/D変換回路85aの出力を遅延させる遅延回路85cと、遅延回路85cの出力の振幅を調整する振幅調整回路85dと、A/D変換回路85bが出力するマイクロホンM2の音声信号から増幅回路85dが出力するマイクロホンM1の音声信号を減算する減算回路85eとを備える。   First, as shown in FIG. 18, the signal processing unit 85 accommodated in the audio processing module A3 includes A / D conversion circuits 85a and 85b for A / D converting the audio signals of the microphones M1 and M2, and the A / D The delay circuit 85c that delays the output of the D conversion circuit 85a, the amplitude adjustment circuit 85d that adjusts the amplitude of the output of the delay circuit 85c, and the amplification circuit 85d that outputs the sound signal of the microphone M2 that is output from the A / D conversion circuit 85b. A subtracting circuit 85e for subtracting the sound signal of the microphone M1.

図19〜図22は、スピーカSPからの音声をマイクロホンM1,M2で各々集音した場合における信号処理部85の各部の音声信号波形を示す。まず、スピーカSPの振動板23の中心から各マイクロホンM1,M2の集音面の中心までの距離をそれぞれX1,X2とすると、X1<X2となる。したがって、スピーカSPからの音声をマイクロホンM1,M2で拾った場合、スピーカSPとマイクロホンM1,M2との距離、およびマイクロホンM1,M2の感度によってマイクロホンM2の出力のほうがマイクロホンM1の出力よりも振幅が小さく、さらに両マイクロホンM1,M2とスピーカSPとの距離の差(X2−X1)に相当する音波の遅延時間[Td=(X2−X1)/Cv](Cvは音速)だけマイクロホンM2の出力の位相が遅れている。   19 to 22 show audio signal waveforms of the respective units of the signal processing unit 85 when the audio from the speaker SP is collected by the microphones M1 and M2. First, if the distances from the center of the diaphragm 23 of the speaker SP to the centers of the sound collecting surfaces of the microphones M1 and M2 are X1 and X2, respectively, X1 <X2. Accordingly, when the sound from the speaker SP is picked up by the microphones M1 and M2, the amplitude of the output of the microphone M2 is larger than the output of the microphone M1 depending on the distance between the speaker SP and the microphones M1 and M2 and the sensitivity of the microphones M1 and M2. The output of the microphone M2 is small, and only the sound wave delay time [Td = (X2-X1) / Cv] (Cv is the speed of sound) corresponding to the difference (X2-X1) in the distance between the microphones M1, M2 and the speaker SP. The phase is delayed.

したがって、A/D変換後のマイクロホンM2の出力Y21のほうが、A/D変換後のマイクロホンM1の出力Y11よりも振幅が小さく、マイクロホンM2の出力Y21はマイクロホンM1の出力Y11より遅延時間Tdだけ位相が遅れている。(図19(a)(b)参照)。   Therefore, the output Y21 of the microphone M2 after A / D conversion has a smaller amplitude than the output Y11 of the microphone M1 after A / D conversion, and the output Y21 of the microphone M2 is phased by the delay time Td from the output Y11 of the microphone M1. Is late. (See FIGS. 19A and 19B).

そして、遅延回路85cは、時間遅延素子またはCR位相遅延回路で構成されており、上記遅延時間TdだけスピーカSPに近いほうのマイクロホンM1の出力を遅延させることで、遅延回路85cの出力Y12とA/D変換回路85bの出力Y21との位相を一致させる(図20(a)(b)参照)。   The delay circuit 85c is composed of a time delay element or a CR phase delay circuit. By delaying the output of the microphone M1 closer to the speaker SP by the delay time Td, the outputs Y12 and A of the delay circuit 85c are delayed. The phase with the output Y21 of the / D conversion circuit 85b is matched (see FIGS. 20A and 20B).

そして、振幅調整回路85dが出力Y12の振幅を調整した出力Y13を生成するのであるが、このときに振幅調整を行ない、スピーカSPからの音声に対する出力Y13と出力Y21の振幅を一致させることで、スピーカSPからの音声に対する両マイクロホンM1,M2の出力レベルを一致させる(図21(a)(b)参照)。なお、本実施形態では、スピーカSPに近いマイクロホンM1に接続した振幅調整回路85dの増幅率は1未満となる。   Then, the amplitude adjustment circuit 85d generates an output Y13 in which the amplitude of the output Y12 is adjusted. At this time, the amplitude adjustment is performed, and the amplitudes of the output Y13 and the output Y21 with respect to the sound from the speaker SP are matched. The output levels of the two microphones M1 and M2 with respect to the sound from the speaker SP are matched (see FIGS. 21A and 21B). In the present embodiment, the amplification factor of the amplitude adjustment circuit 85d connected to the microphone M1 close to the speaker SP is less than 1.

そして、出力Y13に含まれるスピーカSPからの音声成分と、出力Y21に含まれるスピーカSPからの音声成分とは、上記遅延処理,振幅調整処理によって同一振幅、同一位相となり、減算回路85eは、出力Y21からY13を減算することで、スピーカSPからの音声が打ち消された出力Yaが生成される(図22参照)。すなわち、出力Yaでは、スピーカSPからの音声成分が低減しているのである。   Then, the audio component from the speaker SP included in the output Y13 and the audio component from the speaker SP included in the output Y21 have the same amplitude and the same phase by the delay processing and the amplitude adjustment processing, and the subtracting circuit 85e outputs By subtracting Y13 from Y21, an output Ya in which the sound from the speaker SP is canceled is generated (see FIG. 22). That is, in the output Ya, the sound component from the speaker SP is reduced.

また、スピーカSPからの音声に対しては、集音面をスピーカSPの振動板23に対向させて配置したマイクロホンM1の出力Y11の振幅が、集音面を話者Hに向かって配置したマイクロホンM2の出力Y21の振幅に比べて大きくなり、一方、マイクロホンM1,M2前方の話者Hが発する音声に対しては、マイクロホンM2の出力Y21の振幅が、マイクロホンM1の出力Y11の振幅よりも大きくなる。さらに、振幅調整回路85dの増幅率は1未満なので、出力Y21に含まれる話者Hからの音声成分は、出力Y13に含まれる話者Hからの音声成分よりさらに大きくなる。すなわち、出力Y13に含まれる話者Hからの音声成分と、出力Y21に含まれる話者Hからの音声成分との振幅差は大きくなり、減算回路85eで上記減算処理を施しても、出力Yaには、話者Hが発する音声に応じた信号が十分な振幅を維持した状態で残る。   For the sound from the speaker SP, the amplitude of the output Y11 of the microphone M1 arranged with the sound collection surface facing the diaphragm 23 of the speaker SP is the microphone in which the sound collection surface is arranged toward the speaker H. On the other hand, the amplitude of the output Y21 of the microphone M2 is larger than the amplitude of the output Y11 of the microphone M1 with respect to the voice uttered by the speaker H in front of the microphones M1 and M2. Become. Furthermore, since the amplification factor of the amplitude adjustment circuit 85d is less than 1, the speech component from the speaker H included in the output Y21 is larger than the speech component from the speaker H included in the output Y13. That is, the amplitude difference between the speech component from the speaker H included in the output Y13 and the speech component from the speaker H included in the output Y21 becomes large, and even if the subtraction circuit 85e performs the subtraction process, the output Ya Therefore, the signal corresponding to the voice uttered by the speaker H remains in a state where the amplitude is maintained sufficiently.

以上のようにして減算回路85eの出力YaではスピーカSPからの音声成分が低減されて、インターホン装置A前方の話者Hが発した音声成分は残っており、出力Yaでは、残したい話者Hからの音声成分と、低減したいスピーカSPからの音声成分との相対的な差が大きくなる。すなわち、話者Hからの音声とスピーカSPからの音声とが同時に発生している場合でも、話者Hからの音声成分は十分な振幅を維持しながらスピーカSPからの音声成分のみが低減されるので、スピーカSPの音声出力をマイクロホンM1,M2が拾うことで発生するハウリングを防止することができるのである。   As described above, the audio component from the speaker SP is reduced at the output Ya of the subtracting circuit 85e, and the audio component uttered by the speaker H in front of the interphone device A remains, and the speaker H to be retained is output at the output Ya. The relative difference between the sound component from the speaker component and the sound component from the speaker SP to be reduced increases. That is, even when the sound from the speaker H and the sound from the speaker SP are generated at the same time, only the sound component from the speaker SP is reduced while maintaining a sufficient amplitude for the sound component from the speaker H. Therefore, howling that occurs when the microphones M1 and M2 pick up the sound output of the speaker SP can be prevented.

しかしながら、スピーカSPからの音声に対する遅延時間Tdや、音声信号Y11,Y21の振幅は、理想的な条件下(例えば、点音源、ハウジング密閉構造、回路構成のCRのバラツキがない等)では、スピーカSPが発する音声の周波数に依存せず周波数に対して一定であるが、実際には理想的な条件下ではないのでスピーカSPが発する音声の周波数に依存している。   However, the delay time Td with respect to the sound from the speaker SP and the amplitudes of the sound signals Y11 and Y21 are ideal under conditions (for example, there is no variation in the point sound source, the housing sealed structure, the CR of the circuit configuration, etc.). It does not depend on the frequency of the sound emitted by the SP, but is constant with respect to the frequency. However, since it is not actually an ideal condition, it depends on the frequency of the sound emitted by the speaker SP.

そこで、スピーカSPからの音声に対する音声信号Y11,Y21間の遅延時間Tdや、音声信号Y11,Y21の振幅が周波数特性を有することから、遅延回路85cおよび振幅調整回路85dおよび減算回路85eにおける演算処理を、図23に示すように、互いに異なる周波数の音声信号に対応した複数の回路ブロック85i(i=1,2,...,n)と平均化処理部850とを用いたアルゴリズムで表すことが考えられる。   Therefore, since the delay time Td between the audio signals Y11 and Y21 with respect to the sound from the speaker SP and the amplitudes of the audio signals Y11 and Y21 have frequency characteristics, the arithmetic processing in the delay circuit 85c, the amplitude adjustment circuit 85d, and the subtraction circuit 85e. Is represented by an algorithm using a plurality of circuit blocks 85i (i = 1, 2,..., N) corresponding to audio signals having different frequencies and an averaging processing unit 850, as shown in FIG. Can be considered.

マイクロホンM1に接続したA/D変換回路85aの出力Y11のm番目のデジタルデータをS(m)、マイクロホンM2に接続したA/D変換回路85bの出力Y21のm番目のデジタルデータをR(m)とすると、各回路ブロック85iは、マイクロホンM1のm番目のデジタルデータS(m)を増幅する増幅部90iと、遅れ要素91iを介してマイクロホンM1のm−1番目のデジタルデータS(m−1)を増幅する増幅部92iと、増幅部90i,91iの各出力を加算する加算部93iと、加算部93iの出力を増幅する増幅部94iと、マイクロホンM2のm番目のデジタルデータR(m)から増幅部94iの出力を減算する減算部95iとを備える。そして、平均化処理部850は、各回路ブロック85iの減算部95iの出力を加算して回路ブロック85iの数nで除することで、各回路ブロック85iの出力を平均化した出力Yaを生成する。   The mth digital data of the output Y11 of the A / D conversion circuit 85a connected to the microphone M1 is S (m), and the mth digital data of the output Y21 of the A / D conversion circuit 85b connected to the microphone M2 is R (m ), Each circuit block 85i includes an amplifying unit 90i for amplifying the mth digital data S (m) of the microphone M1, and the m−1th digital data S (m−) of the microphone M1 via the delay element 91i. 1), an adder 93i that adds the outputs of the amplifiers 90i and 91i, an amplifier 94i that amplifies the output of the adder 93i, and the mth digital data R (m ) From the amplifying unit 94i. Then, the averaging processing unit 850 adds the outputs of the subtraction unit 95i of each circuit block 85i and divides by the number n of the circuit blocks 85i, thereby generating an output Ya that averages the outputs of the circuit blocks 85i. .

そして、増幅部90iの増幅率Bi1、増幅部92iの増幅率Bi2、増幅部94iの増幅率Ciの各係数は、回路ブロック85iに各々対応する周波数の音声信号に対して最もスピーカ音をキャンセルすることができる値に設定されている。すなわち、回路ブロック85iの各出力は、互いに異なる周波数毎にスピーカ音がキャンセルされているのである。   The coefficients of the amplification factor Bi1 of the amplification unit 90i, the amplification factor Bi2 of the amplification unit 92i, and the amplification factor Ci of the amplification unit 94i cancel the speaker sound most with respect to the audio signal having the frequency corresponding to the circuit block 85i. Is set to a value that can. That is, the speaker sound is canceled for each output of the circuit block 85i for each different frequency.

平均化処理部850が生成する出力Yaは、[数1]のようにBi1、Bi2、Ciという計3n個の係数(第1の係数)を用いて表される。   The output Ya generated by the averaging processing unit 850 is expressed using a total of 3n coefficients (first coefficients) of Bi1, Bi2, and Ci as in [Equation 1].

Figure 2010081124
Figure 2010081124

さらに、[数1]は、[数2]のようにまとめることができるので、出力Yaは、Bi1、Bi2、Ci(第1の係数)を平均化処理したK1,K2の2つの係数(第2の係数)のみを用いて表すことができる。   Furthermore, since [Equation 1] can be summarized as [Equation 2], the output Ya is obtained by averaging two coefficients (first and second) K1, K2 obtained by averaging Bi1, Bi2, and Ci (first coefficient). 2).

Figure 2010081124
Figure 2010081124

したがって、[数2]より、遅延回路85cおよび振幅調整回路85dにおける演算処理は、図24に示すように、マイクロホンM1のm番目のデジタルデータS(m)を増幅率K1で増幅する増幅部96と、遅れ要素97を介してマイクロホンM1のm−1番目のデジタルデータS(m−1)を増幅率K2で増幅する増幅部98と、増幅部96,98の各出力を加算する加算部99とを用いたアルゴリズムで表すことができ、減算回路85eが、マイクロホンM2のm番目のデジタルデータR(m)から加算部99の出力を減算して出力Yaを生成する。本アルゴリズムでは、増幅部96の増幅率K1、増幅部98の増幅率K2という2つの係数のみを設定すればよく、図23に比べて信号処理のアルゴリズムを簡略化できる。   Therefore, from [Equation 2], the calculation process in the delay circuit 85c and the amplitude adjustment circuit 85d is as shown in FIG. 24. The amplification unit 96 amplifies the m-th digital data S (m) of the microphone M1 with the amplification factor K1. And an amplifying unit 98 that amplifies the m−1th digital data S (m−1) of the microphone M1 through the delay element 97 at an amplification factor K2, and an adding unit 99 that adds the outputs of the amplifying units 96 and 98. The subtracting circuit 85e subtracts the output of the adding unit 99 from the mth digital data R (m) of the microphone M2 to generate the output Ya. In this algorithm, it is only necessary to set two coefficients, that is, the amplification factor K1 of the amplification unit 96 and the amplification factor K2 of the amplification unit 98, and the signal processing algorithm can be simplified as compared with FIG.

本実施形態では、遅延回路85cおよび振幅調整回路85dとして図24のアルゴリズムを用いており、2つの係数[増幅率K1,K2]は、ROM等の記憶部86に記憶され、遅延回路85cおよび振幅調整回路85dは、記憶部86に記憶している係数[増幅率K1,K2]に基づいて演算処理を行うのであるが、これらの係数は後述のキャリブレーションによって記憶部86に格納される。   In the present embodiment, the algorithm of FIG. 24 is used as the delay circuit 85c and the amplitude adjustment circuit 85d, and the two coefficients [amplification factors K1, K2] are stored in the storage unit 86 such as a ROM, and the delay circuit 85c and the amplitude The adjustment circuit 85d performs arithmetic processing based on the coefficients [amplification factors K1, K2] stored in the storage unit 86. These coefficients are stored in the storage unit 86 by calibration described later.

次に、音声スイッチ部82,83(図17参照)では、以下の処理を行うことでさらなるハウリング防止を図っている。音声スイッチ部82は受信した信号の伝送線路上に配置され、音声スイッチ部83は送信する信号の伝送線路上に配置されており、音声スイッチ部82,83は互いの入力信号のレベルを比較し、入力信号のレベルが小さいほうの音声スイッチ部は、内部に具備した可変損失手段によって伝送線路上の伝送損失を大きくする。したがって、受信した信号と送信される信号とのうち、いずれかレベルの小さい信号は減衰し、ハウリングマージンがさらに増加するので、一層のハウリング防止が図られている。   Next, in the voice switch units 82 and 83 (see FIG. 17), the following processing is performed to further prevent howling. The voice switch unit 82 is arranged on the transmission line of the received signal, the voice switch unit 83 is arranged on the transmission line of the signal to be transmitted, and the voice switch units 82 and 83 compare the levels of the input signals with each other. The voice switch section with the smaller input signal level increases the transmission loss on the transmission line by the variable loss means provided inside. Accordingly, a signal having a lower level of the received signal and the transmitted signal is attenuated and the howling margin is further increased, so that further howling prevention is achieved.

次に、信号処理部85の遅延回路85cおよび振幅調整回路85dが演算処理を行う際に用いる係数[増幅率K1,K2]を設定し、これらの係数[増幅率K1,K2]を記憶部86に格納するキャリブレーションについて説明する。   Next, coefficients [amplification factors K1, K2] used when the delay circuit 85c and the amplitude adjustment circuit 85d of the signal processing unit 85 perform arithmetic processing are set, and these coefficients [amplification factors K1, K2] are stored in the storage unit 86. The calibration stored in will be described.

キャリブレーション装置Bは、図2に示すように、インターホン装置Aの製造ラインの梱包工程の前に設置された無響室200内に設置されており、無響室200は、幅1.5×奥行1.5×高さ2.0(m)の矩形箱状で、その両側面には、図3に示すようにコンベアCVを貫通させるための開口201が設けられている。無響室200の内部は、外部の騒音、ノイズ等が遮断されるため、キャリブレーションを行うのに適している。   As shown in FIG. 2, the calibration apparatus B is installed in an anechoic chamber 200 installed before the packaging process of the production line of the intercom apparatus A. The anechoic chamber 200 has a width of 1.5 ×. It is a rectangular box shape with a depth of 1.5 × height of 2.0 (m), and openings 201 for penetrating the conveyor CV are provided on both side surfaces thereof as shown in FIG. The inside of the anechoic chamber 200 is suitable for calibration because external noise, noise, and the like are blocked.

無響室200内は図4に示すように、その内面を吸音材202で覆い、コンベアCVの近傍に設置された作業机210上に、パソコン211と、キャリブレーション中のインターホン装置Aを固定するための固定冶具212とが配置されており、作業者290がコンベアCVからキャリブレーション前のインターホン装置Aを固定冶具212にセッティングする。   As shown in FIG. 4, the inside of the anechoic chamber 200 is covered with a sound absorbing material 202, and the personal computer 211 and the interphone device A being calibrated are fixed on a work desk 210 installed in the vicinity of the conveyor CV. A fixing jig 212 is arranged, and the operator 290 sets the interphone device A before calibration from the conveyor CV to the fixing jig 212.

パソコン211は、図5に示すように、計測解析ツールとしてのアプリケーションソフト211a(以降、計測解析ソフト211aと称す)をインストールされるとともに、A/D変換部211bやメモリライタ211cや、RAM等の記憶部211d等を具備して、計測演算手段、係数書き込み手段を構成している。   As shown in FIG. 5, the personal computer 211 is installed with application software 211a as a measurement analysis tool (hereinafter referred to as measurement analysis software 211a), an A / D conversion unit 211b, a memory writer 211c, a RAM, and the like. The storage unit 211d and the like are provided to constitute measurement calculation means and coefficient writing means.

そして、作業者290は、パソコン211を操作して計測解析ソフト211aを起動した後、図1のフローチャートに沿ってキャリブレーションを行う。まず、作業者290は、パソコン211の出力ポート211eをスピーカ駆動用のアンプ220を介してインターホン装置AのスピーカSP(のボイスコイル25)に接続し、マイクロホンM1,M2の出力をA/D変換部211bに接続し、メモリライタ211cの入出力端子を音声処理モジュールA3内の記憶部86の入出力端子に接続する(S1)。スピーカ駆動用のアンプ220は、アンプ制御部220aと、増幅部220bとで構成されており、アンプ制御部220aは、パソコン211からの指示によって増幅部220bの動作を制御する。なお、インターホン装置Aに図示しないコネクタを設けて、パソコン211やアンプ220からの各配線をコネクタ接続し、結線作業の簡略化を図ってもよい。   Then, the operator 290 operates the personal computer 211 to activate the measurement analysis software 211a, and then performs calibration according to the flowchart of FIG. First, the worker 290 connects the output port 211e of the personal computer 211 to the speaker SP (the voice coil 25) of the interphone device A via the speaker driving amplifier 220, and A / D converts the outputs of the microphones M1 and M2. The input / output terminal of the memory writer 211c is connected to the input / output terminal of the storage unit 86 in the audio processing module A3 (S1). The speaker driving amplifier 220 includes an amplifier control unit 220a and an amplification unit 220b. The amplifier control unit 220a controls the operation of the amplification unit 220b according to an instruction from the personal computer 211. In addition, a connector (not shown) may be provided in the intercom apparatus A, and each wiring from the personal computer 211 or the amplifier 220 may be connected to the connector to simplify the connection work.

次に、作業者290の操作によってキャリブレーションを開始した計測解析ソフト211aは、アンプ220を介してスピーカSPを駆動し、マイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがサンプリングしてA/D変換する駆動工程を開始するのであるが、このとき、スピーカSPに入力する正弦波の周波数を順次選択して、複数の周波数でスピーカSPを順次駆動する。   Next, the measurement analysis software 211a that has started calibration by the operation of the operator 290 drives the speaker SP via the amplifier 220, and the A / D conversion unit 211b samples the speaker sound collected by the microphones M1 and M2. Then, the driving process for A / D conversion is started. At this time, the frequency of the sine wave input to the speaker SP is sequentially selected, and the speaker SP is sequentially driven at a plurality of frequencies.

また、インターホン装置Aの記憶部86には、A/D変換回路85a,85bのサンプリング時間のデータが予め格納されており、計測解析ソフト211aは、起動時にインターホン装置Aの記憶部86からサンプリング時間のデータを読み出し、A/D変換部211bが行うA/D変換のサンプリング時間Tsとして設定する。すなわち、インターホン装置Aでのサンプリング時間と、パソコン211でのサンプリングとを一致させることで、キャリブレーションの精度を向上させている。   In addition, the storage unit 86 of the interphone device A stores sampling time data of the A / D conversion circuits 85a and 85b in advance, and the measurement analysis software 211a receives the sampling time from the storage unit 86 of the interphone device A at the time of activation. And is set as the sampling time Ts of A / D conversion performed by the A / D conversion unit 211b. That is, the accuracy of calibration is improved by matching the sampling time in the intercom apparatus A with the sampling in the personal computer 211.

まず、500Hzの正弦波でスピーカSPを駆動し(S2)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S3)。   First, the speaker SP is driven by a sine wave of 500 Hz (S2), the speaker sound collected by the microphones M1 and M2 at that time is A / D converted by the A / D converter 211b, and the measurement analysis software 211a is A / D converted. The D-converted signals are stored in the storage unit 211d as the audio signal Ys1 of the microphone M1 and the audio signal Ys2 of the microphone M2 (S3).

次に、1KHzの正弦波でスピーカSPを駆動し(S4)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S5)。   Next, the speaker SP is driven by a sine wave of 1 KHz (S4), and the speaker sound collected by the microphones M1 and M2 at that time is A / D converted by the A / D converter 211b. The signals after the / D conversion are stored in the storage unit 211d as the audio signal Ys1 of the microphone M1 and the audio signal Ys2 of the microphone M2 (S5).

次に、2KHzの正弦波でスピーカSPを駆動し(S6)、そのときにマイクロホンM1,M2が集音したスピーカ音をA/D変換部211bがA/D変換し、計測解析ソフト211aはA/D変換後の信号を、マイクロホンM1の音声信号Ys1、マイクロホンM2の音声信号Ys2として記憶部211dに格納しておく(S7)。   Next, the speaker SP is driven with a sine wave of 2 KHz (S6), and the speaker sound collected by the microphones M1, M2 at that time is A / D converted by the A / D converter 211b, and the measurement analysis software 211a is A The signals after the / D conversion are stored in the storage unit 211d as the audio signal Ys1 of the microphone M1 and the audio signal Ys2 of the microphone M2 (S7).

そして、計測解析ソフト211aは、500Hz、1KHz、2KHzの各正弦波を集音した各音声信号Ys1,Ys2に基づいて、振幅比データ導出工程、遅延時間データ導出工程を開始する。   Then, the measurement analysis software 211a starts the amplitude ratio data deriving step and the delay time data deriving step based on the audio signals Ys1 and Ys2 obtained by collecting the 500 Hz, 1 KHz, and 2 KHz sine waves.

この振幅比データ導出工程(S8)について、以下説明する。まず、図23に示す簡略化前のアルゴリズムにおける回路ブロック851が500Hzのスピーカ音に対応し、回路ブロック852が1KHzのスピーカ音に対応し、回路ブロック853が2KHzのスピーカ音に対応していると考える。   This amplitude ratio data deriving step (S8) will be described below. First, the circuit block 851 in the pre-simplification algorithm shown in FIG. 23 corresponds to a speaker sound of 500 Hz, the circuit block 852 corresponds to a speaker sound of 1 KHz, and the circuit block 853 corresponds to a speaker sound of 2 KHz. Think.

そして、500Hzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図6(a)のように波高値V11(peak to peak)であり、500Hzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図6(b)のように波高値V21(peak to peak)であり、このときの振幅比データは[V11/V21]となり、この振幅比データ[V11/V21]は、増幅部941の増幅率C1に等しくなる。すなわち、C1=V11/V21 で表される。   Then, the audio signal Ys1 output from the microphone M1 that collects the speaker sound of 500 Hz has a peak value V11 (peak to peak) as shown in FIG. 6A, and the microphone M2 that collects the speaker sound of 500 Hz collects the sound signal Ys1. The audio signal Ys2 to be output has a peak value V21 (peak to peak) as shown in FIG. 6B, and the amplitude ratio data at this time is [V11 / V21], and the amplitude ratio data [V11 / V21] is , Equal to the amplification factor C1 of the amplification unit 941. That is, it is expressed by C1 = V11 / V21.

1KHzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図7(a)のように波高値V12(peak to peak)であり、1KHzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図7(b)のように波高値V22(peak to peak)であり、このときの振幅比データは[V12/V22]となり、この振幅比データ[V12/V22]は、増幅部942の増幅率C2に等しくなる。すなわち、C2=V12/V22 で表される。   The audio signal Ys1 output from the microphone M1 that has collected the speaker sound of 1 KHz has a peak value V12 (peak to peak) as shown in FIG. 7A, and is output from the microphone M2 that has collected the speaker sound of 1 KHz. The audio signal Ys2 has a peak value V22 (peak to peak) as shown in FIG. 7B, and the amplitude ratio data at this time is [V12 / V22], and the amplitude ratio data [V12 / V22] is amplified. It becomes equal to the amplification factor C2 of the part 942. That is, it is expressed by C2 = V12 / V22.

2KHzのスピーカ音を集音したマイクロホンM1が出力する音声信号Ys1は、図8(a)のように波高値V13(peak to peak)であり、2KHzのスピーカ音を集音したマイクロホンM2が出力する音声信号Ys2は、図8(b)のように波高値V23(peak to peak)であり、このときの振幅比データは[V13/V23]となり、この振幅比データ[V13/V23]は、増幅部943の増幅率C3に等しくなる。すなわち、C3=V13/V23 で表される。   The audio signal Ys1 output by the microphone M1 that has collected the speaker sound of 2 KHz has a peak value V13 (peak to peak) as shown in FIG. 8A, and is output by the microphone M2 that has collected the speaker sound of 2 KHz. The audio signal Ys2 has a peak value V23 (peak to peak) as shown in FIG. 8B, and the amplitude ratio data at this time is [V13 / V23], and this amplitude ratio data [V13 / V23] is amplified. It becomes equal to the amplification factor C3 of the part 943. That is, it is expressed by C3 = V13 / V23.

次に、500Hz、1KHz、2KHzの各スピーカ音を集音したマイクロホンM1,M2の各音声信号Y11,Y21から、マイクロホンM1の出力に対してマイクロホンM2の出力の位相が遅れている遅延時間Tdを周波数毎に導出する(S9)。   Next, the delay time Td in which the phase of the output of the microphone M2 is delayed with respect to the output of the microphone M1 from the audio signals Y11 and Y21 of the microphones M1 and M2 that collect the speaker sounds of 500 Hz, 1 KHz, and 2 KHz. Derived for each frequency (S9).

まず、500Hzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図9(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td1だけ遅れている。   First, as shown in FIGS. 9A and 9B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 500 Hz are the audio signals Ys2 of the microphone M1 and the audio signals Ys1 of the microphone M1. Is delayed by a delay time Td1.

1KHzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図10(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td2だけ遅れている。   As shown in FIGS. 10A and 10B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 1 KHz are compared with the audio signal Ys1 of the microphone M1 as compared with the audio signal Ys1 of the microphone M1. Is delayed by the delay time Td2.

2KHzのスピーカ音に対してマイクロホンM1,M2が出力する各音声信号Ys1,Ys2は、図11(a)(b)のように、マイクロホンM2の音声信号Ys2が、マイクロホンM1の音声信号Ys1に比べて遅延時間Td3だけ遅れている。   As shown in FIGS. 11A and 11B, the audio signals Ys1 and Ys2 output from the microphones M1 and M2 with respect to the speaker sound of 2 KHz are compared with the audio signal Ys1 of the microphone M1 as compared with the audio signal Ys1 of the microphone M1. Is delayed by the delay time Td3.

次に、500Hz時、1KHz時、2KHz時の各振幅比データ[C1=V11/V21、C2=V12/V22、C3=V13/V23]、各遅延時間データ[Td1,Td2,Td3]に基づいて、スピーカ音をキャンセルする演算処理に最適な係数[増幅率K1,K2]を導出する最適係数導出工程を開始する(S10)。ここで、500Hz時、1KHz時、2KHz時の各遅延時間Td1,Td2,Td3が、Td1<Td2<Td3の関係を有するとして、以下説明する。   Next, based on each amplitude ratio data [C1 = V11 / V21, C2 = V12 / V22, C3 = V13 / V23] at 500 Hz, 1 KHz, and 2 KHz, and each delay time data [Td1, Td2, Td3] Then, an optimum coefficient deriving step for deriving optimum coefficients [amplification factors K1, K2] for calculation processing for canceling the speaker sound is started (S10). Here, the following description will be made assuming that the delay times Td1, Td2, and Td3 at 500 Hz, 1 KHz, and 2 KHz have a relationship of Td1 <Td2 <Td3.

まず、最も短い遅延時間Tdの周波数に対応する回路ブロック85iの増幅部90iの増幅率Bi1を「1」とし、増幅部92iの増幅率Bi2を「0」にする。ここでは、遅延時間Td1が最も短いので、500Hzに対応する回路ブロック851の増幅部901の増幅率B11を「1」とし、増幅部921の増幅率B12を「0」にする。   First, the amplification factor Bi1 of the amplification unit 90i of the circuit block 85i corresponding to the frequency of the shortest delay time Td is set to “1”, and the amplification factor Bi2 of the amplification unit 92i is set to “0”. Here, since the delay time Td1 is the shortest, the amplification factor B11 of the amplification unit 901 of the circuit block 851 corresponding to 500 Hz is set to “1”, and the amplification factor B12 of the amplification unit 921 is set to “0”.

他の周波数に対応する回路ブロックの回路ブロック85iの各増幅率Bi1,Bi2は、各周波数における遅延時間と最も短い遅延時間との差分によって求める。例えば、図12では、A/D変換部211bがサンプリング時間TsでA/D変換を行っており、プロットP1が、最も短い遅延時間の周波数に対応するマイクロホンM1の出力のm番目のデジタルデータS(m)を示し、プロットP2が、最も短い遅延時間の周波数に対応するマイクロホンM1の出力のm−1番目のデジタルデータS(m−1)を示す。そして、この最も短い遅延時間と他の周波数における遅延時間との差分ΔTdとすると、プロットP1−P2間を結ぶ直線上で、プロットP1から差分ΔTdだけ遅れたプロットP3に、他の周波数に対応するマイクロホンM1の出力のm番目のデジタルデータが存在すると考えられる。   The amplification factors Bi1 and Bi2 of the circuit block 85i of the circuit block corresponding to another frequency are obtained from the difference between the delay time at each frequency and the shortest delay time. For example, in FIG. 12, the A / D conversion unit 211b performs A / D conversion with the sampling time Ts, and the plot P1 indicates the mth digital data S output from the microphone M1 corresponding to the frequency with the shortest delay time. (M) is shown, and the plot P2 shows the (m−1) th digital data S (m−1) of the output of the microphone M1 corresponding to the frequency with the shortest delay time. If the difference ΔTd between the shortest delay time and the delay time at another frequency is taken as a difference ΔTd, the plot P3 delayed by the difference ΔTd from the plot P1 on the straight line connecting the plots P1 and P2 corresponds to the other frequency. It is considered that there is m-th digital data output from the microphone M1.

而して、図12より[数3]が導き出され、増幅率Bi1,Bi2は[数4]のように表される。   Thus, [Expression 3] is derived from FIG. 12, and the amplification factors Bi1 and Bi2 are expressed as [Expression 4].

Figure 2010081124
Figure 2010081124

Figure 2010081124
Figure 2010081124

したがって、周波数1KHzに対応する回路ブロック852の増幅部902の増幅率B21、増幅部922の増幅率B22は[数5]で表される。   Therefore, the amplification factor B21 of the amplification unit 902 and the amplification factor B22 of the amplification unit 922 of the circuit block 852 corresponding to the frequency 1 KHz are expressed by [Equation 5].

Figure 2010081124
Figure 2010081124

また、周波数2KHzに対応する回路ブロック853の増幅部903の増幅率B31、増幅部923の増幅率B32は[数6]で表される。   Further, the amplification factor B31 of the amplification unit 903 and the amplification factor B32 of the amplification unit 923 of the circuit block 853 corresponding to the frequency 2 KHz are expressed by [Equation 6].

Figure 2010081124
Figure 2010081124

そして、[数2]より[数7]が求められるので、上記のように求めた各周波数に対応する回路ブロック85iにおける増幅部94iの増幅率Ci、増幅部90iの増幅率Bi1、増幅部92iの増幅率Bi2を[数7]に代入して平均化し、信号処理部85の遅延回路85cおよび振幅調整回路85dが演算処理(図24のアルゴリズム)を行う際に用いる係数[増幅率K1,K2]を算出する(S10)。   Since [Equation 7] is obtained from [Equation 2], the amplification factor Ci of the amplification unit 94i, the amplification factor Bi1 of the amplification unit 90i, and the amplification unit 92i in the circuit block 85i corresponding to each frequency obtained as described above. Is substituted into [Equation 7] and averaged, and the coefficients [amplification factors K1, K2 used when the delay circuit 85c and the amplitude adjustment circuit 85d of the signal processing unit 85 perform arithmetic processing (the algorithm of FIG. 24). ] Is calculated (S10).

Figure 2010081124
Figure 2010081124

このように、マイクロホンM1,M2の音声信号が有する周波数特性を考慮して、係数[増幅率K1,K2]を算出するので、キャリブレーションの精度が高くなる。また、Bi1、Bi2、Ci(第1の係数)を平均化処理したK1,K2の2つの係数(第2の係数)のみを算出するので、キャリブレーションに要する時間を短縮できる。   In this way, the coefficients [amplification factors K1, K2] are calculated in consideration of the frequency characteristics of the sound signals of the microphones M1, M2, so that the calibration accuracy is increased. Further, since only two coefficients (second coefficient) K1 and K2 obtained by averaging Bi1, Bi2, and Ci (first coefficient) are calculated, the time required for calibration can be shortened.

ここで、計測解析ソフト211aは、起動時にインターホン装置Aの記憶部86からサンプリング時間のデータを読み出し、A/D変換部211bが行うA/D変換のサンプリング時間Tsとして設定している。したがって、複数種類のインターホン装置Aに対しても(例えば、マイクロホンM1,M2間の距離が異なる複数機種等)、上記キャリブレーションを行うことができ、汎用性が高まる。   Here, the measurement analysis software 211a reads sampling time data from the storage unit 86 of the intercom apparatus A at the time of activation, and sets it as the sampling time Ts of A / D conversion performed by the A / D conversion unit 211b. Therefore, the calibration can be performed for a plurality of types of interphone apparatuses A (for example, a plurality of models having different distances between the microphones M1 and M2), and versatility is improved.

次に、パソコン211の計測解析ソフト211aは、S10で算出した係数[増幅率K1,K2]が予め設定された範囲内に収まっているか否かを判定し、係数[増幅率K1,K2]が当該範囲内に収まっておれば、算出した係数[増幅率K1,K2]を適正な値であるとして、メモリライタ211cによってインターホン装置Aの記憶部86に格納する。係数[増幅率K1,K2]が当該範囲内に収まっていなければ、算出した係数[増幅率K1,K2]は不適正な値であるとして破棄し、不適正な係数[増幅率K1,K2]が記憶部86に格納されることなく、インターホン装置Aの信頼性を確保している(S11)。   Next, the measurement analysis software 211a of the personal computer 211 determines whether or not the coefficients [amplification factors K1, K2] calculated in S10 are within a preset range, and the coefficients [amplification factors K1, K2] are determined. If it is within the range, the calculated coefficients [amplification factors K1, K2] are stored as appropriate values in the storage unit 86 of the intercom apparatus A by the memory writer 211c. If the coefficient [amplification factor K1, K2] is not within the range, the calculated coefficient [amplification factor K1, K2] is discarded as an inappropriate value, and the inappropriate factor [amplification factor K1, K2] is discarded. Is stored in the storage unit 86, and the reliability of the intercom apparatus A is ensured (S11).

そして、無響室200内の作業者290は、係数[増幅率K1,K2]が適正値で算出されて記憶部86に格納されたインターホン装置Aは、再びコンベアCVに載せて、無響室200から搬出する。このインターホン装置AをコンベアCVに載せる作業は、図示しないロボット機械が行って、工数の短縮を図ってもよい。一方、係数[増幅率K1,K2]が不適正値で算出されてキャリブレーション不良となったインターホン装置A’は、無響室200内のトレイ230に保管される(図4参照)。そして、マイクロホンM1,M2の不良の有無、配線の断線の有無等を調べて、キャリブレーション不良の原因となった部品を交換したり、修理を行った後に、再びキャリブレーションを行う。   Then, the operator 290 in the anechoic chamber 200 calculates the coefficients [amplification factors K1, K2] with appropriate values and stores the interphone device A stored in the storage unit 86 on the conveyor CV again. Unload from 200. The work of placing the intercom device A on the conveyor CV may be performed by a robot machine (not shown) to reduce the number of steps. On the other hand, the intercom apparatus A ′ whose coefficient [amplification factor K1, K2] is calculated as an inappropriate value and the calibration is defective is stored in the tray 230 in the anechoic chamber 200 (see FIG. 4). Then, the microphones M1 and M2 are checked for the presence or absence of wiring, the presence or absence of wiring disconnection, etc., and the parts causing the calibration failure are replaced or repaired, and then calibration is performed again.

キャリブレーションが完了したインターホン装置Aは、コンベアCによって無響室200から梱包工程に搬送され、作業者300によってダンボール箱301に梱包されて、出荷される(図2参照)。   The intercom apparatus A that has been calibrated is transported from the anechoic chamber 200 to the packing process by the conveyor C, packed by the operator 300 in the cardboard box 301, and shipped (see FIG. 2).

このように、インターホン装置Aは、スピーカSP、マイクロホンM1,M2、音声処理モジュールが装置本体A1に組み付けられた状態でキャリブレーションされており、インターホン装置Aに組み込まれたスピーカSPが発する音を用いて、スピーカ音のキャンセル処理を行う演算処理に用いる係数[増幅率K1,K2]を算出するので、別途スピーカ等の発音体を用意する必要がなく、キャリブレーション装置の構成を簡略化できる。   As described above, the interphone apparatus A is calibrated in a state where the speaker SP, the microphones M1 and M2, and the sound processing module are assembled to the apparatus main body A1, and uses the sound emitted by the speaker SP incorporated in the interphone apparatus A. Thus, since the coefficients [amplification factors K1, K2] used for the calculation process for canceling the speaker sound are calculated, it is not necessary to prepare a separate sound generator such as a speaker, and the configuration of the calibration apparatus can be simplified.

なお、本実施形態では、情報線Lsを介した有線通信方式を用いて、インターホン装置A間における音声信号の授受を行っているが、インターホン装置Aに周知の無線通信手段を設けることで、無線通信方式による音声信号の授受を行ってもよい。   In this embodiment, audio signals are exchanged between the intercom apparatuses A using a wired communication system via the information line Ls. However, by providing a well-known wireless communication means in the interphone apparatus A, wireless communication is possible. Voice signals may be exchanged using a communication method.

(実施形態2)
実施形態1では、インターホン装置Aに、計測解析ソフト211aをインストールした外部のパソコン211やアンプ220を接続して、キャリブレーションを行ったが、本実施形態のインターホン装置Aは、図25に示すように、マイクロコンピュータ240(以降、マイコン240と称す)を内部に格納している。マイコン240は、図26に示すように、計測解析ツールとしてのアプリケーションソフト240a(以降、計測解析ソフト240aと称す)をインストールされるとともに、RAM等の記憶部240b等を具備しており、外部のパソコン等の端末250と外部インタフェース260を介して通信可能に構成されている。また音声処理モジュールA3が、実施形態1のアンプ220やA/D変換手段211bやメモリライタ211cの各機能を備え、マイコン240および音声処理モジュールA3で計測演算手段、係数書き込み手段を構成している。
(Embodiment 2)
In the first embodiment, the external computer 211 and the amplifier 220 in which the measurement analysis software 211a is installed are connected to the intercom apparatus A for calibration, but the intercom apparatus A of the present embodiment is as shown in FIG. In addition, a microcomputer 240 (hereinafter referred to as a microcomputer 240) is stored therein. As shown in FIG. 26, the microcomputer 240 is installed with application software 240a (hereinafter referred to as measurement analysis software 240a) as a measurement analysis tool, and includes a storage unit 240b such as a RAM. Communication is possible with a terminal 250 such as a personal computer via an external interface 260. The voice processing module A3 includes the functions of the amplifier 220, the A / D conversion unit 211b, and the memory writer 211c of the first embodiment, and the microcomputer 240 and the voice processing module A3 constitute measurement calculation means and coefficient writing means. .

そして、作業者290が端末250を操作してマイコン240にアクセスし、計測解析ソフト240aを起動した後、計測解析ソフト240aは図27のフローチャートに沿ってキャリブレーションを行う。まず、計測解析ソフト240aはスピーカSPを駆動し、テストモード1(S21)、テストモード2(S22)の順に処理を行う。   Then, after the operator 290 operates the terminal 250 to access the microcomputer 240 and activates the measurement analysis software 240a, the measurement analysis software 240a performs calibration according to the flowchart of FIG. First, the measurement analysis software 240a drives the speaker SP and performs processing in the order of test mode 1 (S21) and test mode 2 (S22).

まず、テストモード1において計測解析ソフト240aは、マイクロホンM1からの入力を有効、マイクロホンM2からの入力を無効とした後に、500Hzの正弦波,1KHzの正弦波,2KHzの正弦波の順にスピーカSPを駆動し、各周波数においてマイクロホンM1が集音したスピーカ音を音声処理モジュールA3が順次A/D変換し、計測解析ソフト240aはA/D変換後の各周波数の信号を、マイクロホンM1の音声信号Ys1として記憶部240bに格納しておく。   First, in the test mode 1, the measurement analysis software 240a validates the input from the microphone M1, invalidates the input from the microphone M2, and then turns the speaker SP in the order of 500 Hz sine wave, 1 KHz sine wave, and 2 KHz sine wave. The sound processing module A3 sequentially performs A / D conversion on the speaker sound collected by the microphone M1 at each frequency, and the measurement analysis software 240a converts the signal at each frequency after the A / D conversion into the sound signal Ys1 of the microphone M1. Is stored in the storage unit 240b.

次に、テストモード2において計測解析ソフト240aは、マイクロホンM1からの入力を無効、マイクロホンM2からの入力を有効とした後に、500Hzの正弦波,1KHzの正弦波,2KHzの正弦波の順にスピーカSPを駆動し、各周波数においてマイクロホンM2が集音したスピーカ音を音声処理モジュールA3が順次A/D変換し、計測解析ソフト240aはA/D変換後の各周波数の信号を、マイクロホンM2の音声信号Ys2として記憶部240bに格納しておく。   Next, in the test mode 2, the measurement analysis software 240a invalidates the input from the microphone M1 and validates the input from the microphone M2, and then the speaker SP in the order of 500 Hz sine wave, 1 KHz sine wave, and 2 KHz sine wave. The sound processing module A3 sequentially performs A / D conversion on the speaker sound collected by the microphone M2 at each frequency, and the measurement analysis software 240a converts each frequency signal after the A / D conversion into the sound signal of the microphone M2. It is stored in the storage unit 240b as Ys2.

そして、計測解析ソフト240aは、500Hz、1KHz、2KHzの各正弦波を集音した各音声信号Ys1,Ys2に基づいて、振幅比データ導出工程(S23)、遅延時間データ導出工程(S24)を行い、その後、500Hz時、1KHz時、2KHz時の各振幅比データ[C1=V11/V21、C2=V12/V22、C3=V13/V23]、各遅延時間データ[Td1,Td2,Td3]に基づいて(図6〜図11参照)、スピーカ音をキャンセルする演算処理に最適な係数[増幅率K1,K2]を導出する最適係数導出工程を行う(S25)。なお、上記振幅比データ導出工程(S23)、遅延時間データ導出工程(S24)、最適係数導出工程(S25)は、実施形態1の振幅比データ導出工程(S8)、遅延時間データ導出工程(S9)、最適係数導出工程(S10)と同様であるので、詳細な説明は省略する。但し本実施形態においては、マイクロホンM1,M2の各音声信号をテストモード1,2で個別に集音しているため、マイクロホンM1の出力に対してマイクロホンM2の出力の位相が遅れている遅延時間Tdは、スピーカSPから各周波数の音声を出力したタイミングを基準として導出している。   The measurement analysis software 240a performs an amplitude ratio data derivation step (S23) and a delay time data derivation step (S24) based on the audio signals Ys1 and Ys2 obtained by collecting the sine waves of 500 Hz, 1 KHz, and 2 KHz. Then, based on each amplitude ratio data [C1 = V11 / V21, C2 = V12 / V22, C3 = V13 / V23] at 500 Hz, 1 KHz, and 2 KHz, and each delay time data [Td1, Td2, Td3] (Refer to FIGS. 6 to 11), an optimum coefficient deriving step for deriving optimum coefficients [amplification factors K1, K2] for the calculation process for canceling the speaker sound is performed (S25). The amplitude ratio data deriving step (S23), delay time data deriving step (S24), and optimum coefficient deriving step (S25) are the amplitude ratio data deriving step (S8) and delay time data deriving step (S9) of the first embodiment. ) And the optimum coefficient deriving step (S10), and detailed description thereof is omitted. However, in this embodiment, since the audio signals of the microphones M1 and M2 are individually collected in the test modes 1 and 2, the delay time in which the phase of the output of the microphone M2 is delayed with respect to the output of the microphone M1. Td is derived based on the timing at which the sound of each frequency is output from the speaker SP.

次に、計測解析ソフト240aは、S25で算出した係数[増幅率K1,K2]が予め設定された範囲内に収まっているか否かを判定し、係数[増幅率K1,K2]が当該範囲内に収まっておれば、算出した係数[増幅率K1,K2]を適正な値であるとして、インターホン装置Aの記憶部86に格納する。係数[増幅率K1,K2]が当該範囲内に収まっていなければ、算出した係数[増幅率K1,K2]は不適正な値であるとして破棄し、不適正な係数[増幅率K1,K2]が記憶部86に格納されることなく、インターホン装置Aの信頼性を確保している(S26)。   Next, the measurement analysis software 240a determines whether or not the coefficients [amplification factors K1, K2] calculated in S25 are within a preset range, and the coefficients [amplification factors K1, K2] are within the range. If it is within the range, the calculated coefficient [amplification factors K1, K2] is stored in the storage unit 86 of the intercom apparatus A as an appropriate value. If the coefficient [amplification factor K1, K2] is not within the range, the calculated coefficient [amplification factor K1, K2] is discarded as an inappropriate value, and the inappropriate factor [amplification factor K1, K2] is discarded. Is stored in the storage unit 86, and the reliability of the intercom apparatus A is ensured (S26).

このように本実施形態のキャリブレーション方法では、インターホン装置Aが、計測解析ソフト240aをインストールしたマイコン240や、アンプ、A/D変換手段、メモリライタの各機能を具備した音声処理モジュールA3を備えているので、外部のパソコン211に計測解析ソフトをインストールしたり、アンプ220を用意する必要がなく、キャリブレーション装置の構成をさらに簡略化できる。さらには、インターホン装置Aを設置した後でも、マイコン240と通信可能な端末装置250をインターホン装置Aに接続するだけで、設置状況に応じたキャリブレーションを容易に行うことができる。なお、他の構成は実施形態1と同様であり、説明は省略する。   As described above, in the calibration method of the present embodiment, the intercom apparatus A includes the microcomputer 240 in which the measurement analysis software 240a is installed, and the audio processing module A3 having the functions of the amplifier, the A / D conversion unit, and the memory writer. Therefore, it is not necessary to install measurement analysis software in the external personal computer 211 or prepare the amplifier 220, and the configuration of the calibration apparatus can be further simplified. Furthermore, even after the interphone device A is installed, the calibration according to the installation status can be easily performed only by connecting the terminal device 250 capable of communicating with the microcomputer 240 to the interphone device A. Other configurations are the same as those in the first embodiment, and a description thereof will be omitted.

実施形態1のインターホン装置用キャリブレーション方法のフローチャートを示す図である。It is a figure which shows the flowchart of the calibration method for intercom apparatuses of Embodiment 1. FIG. 同上のキャリブレーション設備の概要を示す図である。It is a figure which shows the outline | summary of a calibration equipment same as the above. 同上の無響室の側面を示す図である。It is a figure which shows the side of an anechoic chamber same as the above. 同上の無響室内の概要を示す概略図である。It is the schematic which shows the outline | summary in an anechoic chamber same as the above. 同上のキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of a calibration apparatus same as the above. (a)(b)同上の500Hzの音声信号の波形図である。(A) (b) It is a waveform figure of a 500-Hz audio | voice signal same as the above. (a)(b)同上の1KHzの音声信号の波形図である。(A) (b) It is a wave form diagram of a 1-kHz audio | voice signal same as the above. (a)(b)同上の2KHzの音声信号の波形図である。(A) (b) It is a wave form diagram of a 2kHz audio | voice signal same as the above. (a)(b)同上の500Hzの音声信号の波形図である。(A) (b) It is a waveform figure of a 500-Hz audio | voice signal same as the above. (a)(b)同上の1KHzの音声信号の波形図である。(A) (b) It is a wave form diagram of a 1-kHz audio | voice signal same as the above. (a)(b)同上の2KHzの音声信号の波形図である。(A) (b) It is a wave form diagram of a 2kHz audio | voice signal same as the above. 同上の最適係数算出処理を示す図である。It is a figure which shows the optimal coefficient calculation process same as the above. 同上のインターホン装置を示す断面図である。It is sectional drawing which shows an intercom apparatus same as the above. 同上のインターホン装置の一部を示す分解斜視図である。It is a disassembled perspective view which shows a part of interphone apparatus same as the above. 同上のインターホン装置をボックスに取り付けた斜視図である。It is the perspective view which attached the intercom apparatus same as the above to the box. 同上の装置本体の一部拡大した裏面図である。It is the reverse view which expanded a part of apparatus main body same as the above. 同上の音声処理モジュールの構成図である。It is a block diagram of a voice processing module same as the above. 同上の信号処理部の回路構成図である。It is a circuit block diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. (a)(b)同上の信号処理部の信号波形図である。(A) (b) It is a signal waveform diagram of a signal processing part same as the above. 同上の信号処理部の信号波形図である。It is a signal waveform figure of a signal processing part same as the above. 同上の遅延回路および振幅調整回路における簡略化前のアルゴリズムを示す図である。It is a figure which shows the algorithm before simplification in a delay circuit and an amplitude adjustment circuit same as the above. 同上の遅延回路および振幅調整回路における簡略化後のアルゴリズムを示す図である。It is a figure which shows the algorithm after the simplification in the delay circuit and amplitude adjustment circuit same as the above. 実施形態2のキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of the calibration apparatus of Embodiment 2. FIG. 同上のマイコンの構成を示す図である。It is a figure which shows the structure of a microcomputer same as the above. 同上のインターホン装置用キャリブレーション方法のフローチャートを示す図である。It is a figure which shows the flowchart of the calibration method for interphone apparatuses same as the above.

符号の説明Explanation of symbols

A インターホン装置
SP スピーカ
M1,M2 マイクロホン
211 パソコン
220 アンプ
A Intercom device SP Speaker M1, M2 Microphone 211 Personal computer 220 Amplifier

Claims (5)

伝達された音声情報によって音声を発する発音体と、
音声を集音して音声信号を出力する第1,第2のマイクロホンと、
第1,第2のマイクロホンと発音体との各距離の差に相当する音波の伝達時間である遅延時間、および発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅比から算出される係数を用いた演算処理を、第1,第2のマイクロホンが出力する音声信号に対して施すことで、発音体が発した音をキャンセルした音声信号を生成する信号処理部と、
信号処理部が演算処理に用いる係数を記憶した記憶部と、
を具備したインターホン装置に対してキャリブレーションを行うインターホン装置用キャリブレーション方法であって、
インターホン装置に発音体、第1,第2のマイクロホン、信号処理部、記憶部を組み込んだ状態で発音体を特定の周波数で駆動する駆動工程と、
特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の振幅に基づいて、前記振幅比のデータを導出する振幅比データ導出工程と、
特定の周波数で駆動された発音体からの音声に対する第1,第2のマイクロホンの各音声信号の位相に基づいて、前記遅延時間のデータを導出する遅延時間データ導出工程と、
前記導出された遅延時間および前記振幅比の各データに基づいて、信号処理部が前記演算処理に用いる係数を算出する最適係数算出工程と、
前記算出した係数を記憶部に格納する記憶工程と、
を含むことを特徴とするインターホン装置用キャリブレーション方法。
A sounding body that emits sound based on the transmitted sound information;
First and second microphones for collecting sound and outputting sound signals;
From the delay time which is the transmission time of the sound wave corresponding to the difference between the distances between the first and second microphones and the sounding body, and the amplitude ratio of the sound signals of the first and second microphones to the sound from the sounding body. A signal processing unit that generates an audio signal in which the sound emitted by the sounding body is canceled by performing arithmetic processing using the calculated coefficient on the audio signal output from the first and second microphones;
A storage unit that stores coefficients used by the signal processing unit for arithmetic processing;
A calibration method for an intercom device that calibrates an intercom device equipped with
A driving step of driving the sounding body at a specific frequency in a state in which the sounding body, the first and second microphones, the signal processing unit, and the storage unit are incorporated in the intercom device;
An amplitude ratio data deriving step for deriving the data of the amplitude ratio based on the amplitude of each audio signal of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency;
A delay time data deriving step for deriving the delay time data based on the phase of each sound signal of the first and second microphones with respect to the sound from the sounding body driven at a specific frequency;
An optimum coefficient calculating step for calculating a coefficient used by the signal processing unit for the arithmetic processing based on each of the derived delay time and amplitude ratio data;
A storage step of storing the calculated coefficient in a storage unit;
A calibration method for an intercom device, comprising:
前記駆動工程は、複数の周波数から順次選択される特定の周波数で前記発音体を駆動し、
前記振幅比データ導出工程および遅延時間データ導出工程は、複数の周波数から順次選択される特定の周波数毎に前記振幅比および前記遅延時間の各データを導出する
ことを特徴とする請求項1記載のインターホン装置用キャリブレーション方法。
The driving step drives the sounding body at a specific frequency sequentially selected from a plurality of frequencies,
The amplitude ratio data deriving step and the delay time data deriving step derive each data of the amplitude ratio and the delay time for each specific frequency sequentially selected from a plurality of frequencies. Calibration method for intercom equipment.
前記最適係数算出工程は、複数の周波数から順次選択される特定の周波数毎に導出された前記振幅比および前記遅延時間の各データに基づいて、前記特定の周波数毎に前記演算処理に用いる第1の係数を算出し、当該特定の周波数毎に算出した複数の第1の係数を平均化処理して前記演算処理に用いる第2の係数を算出し、
前記記憶工程は、第2の係数を前記記憶部に格納する
ことを特徴とする請求項2記載のインターホン装置用キャリブレーション方法。
The optimal coefficient calculating step uses a first data used for the calculation processing for each specific frequency based on the amplitude ratio and the delay time data derived for each specific frequency sequentially selected from a plurality of frequencies. And calculating a second coefficient used for the arithmetic processing by averaging the plurality of first coefficients calculated for each specific frequency,
The intercom device calibration method according to claim 2, wherein the storing step stores the second coefficient in the storage unit.
前記記憶工程は、第2の係数が所定の範囲内であれば、当該第2の係数を記憶部に格納し、第2の係数が所定の範囲外であれば、当該第2の係数を記憶部に格納しないことを特徴とする請求項3記載のインターホン装置用キャリブレーション方法。   The storage step stores the second coefficient in the storage unit if the second coefficient is within a predetermined range, and stores the second coefficient if the second coefficient is outside the predetermined range. 4. The intercom device calibration method according to claim 3, wherein the interphone device calibration method is not stored in the unit. 前記信号処理部は、第1,第2のマイクロホンの各音声信号をA/D変換するA/D変換手段を備え、前記記憶部はA/D変換手段のサンプリング時間を予め記憶しており、
前記最適係数算出工程は、前記遅延時間および前記振幅比の各データに加えて記憶部から読み出したサンプリング時間に基づいて、前記演算処理に用いる係数を算出する
ことを特徴とする請求項1乃至4いずれか記載のインターホン装置用キャリブレーション方法。
The signal processing unit includes A / D conversion means for A / D converting each audio signal of the first and second microphones, and the storage unit stores in advance the sampling time of the A / D conversion means,
5. The optimum coefficient calculating step calculates a coefficient used for the arithmetic processing based on a sampling time read from a storage unit in addition to each data of the delay time and the amplitude ratio. The interphone apparatus calibration method according to any one of the above.
JP2008244971A 2008-09-24 2008-09-24 Calibration method for intercom device Pending JP2010081124A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008244971A JP2010081124A (en) 2008-09-24 2008-09-24 Calibration method for intercom device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008244971A JP2010081124A (en) 2008-09-24 2008-09-24 Calibration method for intercom device

Publications (1)

Publication Number Publication Date
JP2010081124A true JP2010081124A (en) 2010-04-08

Family

ID=42211096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008244971A Pending JP2010081124A (en) 2008-09-24 2008-09-24 Calibration method for intercom device

Country Status (1)

Country Link
JP (1) JP2010081124A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527223A (en) * 2014-09-09 2017-09-14 ソノズ インコーポレイテッド Playback device calibration
JP2017531377A (en) * 2014-09-09 2017-10-19 ソノズ インコーポレイテッド Playback device calibration
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9872119B2 (en) 2014-03-17 2018-01-16 Sonos, Inc. Audio settings of multiple speakers in a playback device
US9913057B2 (en) 2012-06-28 2018-03-06 Sonos, Inc. Concurrent multi-loudspeaker calibration with a single measurement
US9992597B2 (en) 2015-09-17 2018-06-05 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US10045142B2 (en) 2016-04-12 2018-08-07 Sonos, Inc. Calibration of audio playback devices
US10051399B2 (en) 2014-03-17 2018-08-14 Sonos, Inc. Playback device configuration according to distortion threshold
US10063983B2 (en) 2016-01-18 2018-08-28 Sonos, Inc. Calibration using multiple recording devices
US10129678B2 (en) 2016-07-15 2018-11-13 Sonos, Inc. Spatial audio correction
US10127008B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Audio processing algorithm database
US10129679B2 (en) 2015-07-28 2018-11-13 Sonos, Inc. Calibration error conditions
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US10284983B2 (en) 2015-04-24 2019-05-07 Sonos, Inc. Playback device calibration user interfaces
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US10296282B2 (en) 2012-06-28 2019-05-21 Sonos, Inc. Speaker calibration user interface
US10334386B2 (en) 2011-12-29 2019-06-25 Sonos, Inc. Playback based on wireless signal
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10448194B2 (en) 2016-07-15 2019-10-15 Sonos, Inc. Spectral correction using spatial calibration
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10585639B2 (en) 2015-09-17 2020-03-10 Sonos, Inc. Facilitating calibration of an audio playback device
US10599386B2 (en) 2014-09-09 2020-03-24 Sonos, Inc. Audio processing algorithms
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US11983458B2 (en) 2022-12-14 2024-05-14 Sonos, Inc. Calibration assistance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245742A (en) * 1988-03-28 1989-09-29 Matsushita Electric Works Ltd Loudspeaker communication set
JP2003032780A (en) * 2001-07-16 2003-01-31 Matsushita Electric Ind Co Ltd Howling detecting and suppressing device, acoustic device provided therewith and howling detecting and suppressing method
JP2007267044A (en) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd Speaking device
JP2008109522A (en) * 2006-10-26 2008-05-08 Matsushita Electric Works Ltd Speaking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245742A (en) * 1988-03-28 1989-09-29 Matsushita Electric Works Ltd Loudspeaker communication set
JP2003032780A (en) * 2001-07-16 2003-01-31 Matsushita Electric Ind Co Ltd Howling detecting and suppressing device, acoustic device provided therewith and howling detecting and suppressing method
JP2007267044A (en) * 2006-03-28 2007-10-11 Matsushita Electric Works Ltd Speaking device
JP2008109522A (en) * 2006-10-26 2008-05-08 Matsushita Electric Works Ltd Speaking device

Cited By (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11528578B2 (en) 2011-12-29 2022-12-13 Sonos, Inc. Media playback based on sensor data
US10945089B2 (en) 2011-12-29 2021-03-09 Sonos, Inc. Playback based on user settings
US10455347B2 (en) 2011-12-29 2019-10-22 Sonos, Inc. Playback based on number of listeners
US11290838B2 (en) 2011-12-29 2022-03-29 Sonos, Inc. Playback based on user presence detection
US11825289B2 (en) 2011-12-29 2023-11-21 Sonos, Inc. Media playback based on sensor data
US10986460B2 (en) 2011-12-29 2021-04-20 Sonos, Inc. Grouping based on acoustic signals
US11122382B2 (en) 2011-12-29 2021-09-14 Sonos, Inc. Playback based on acoustic signals
US11153706B1 (en) 2011-12-29 2021-10-19 Sonos, Inc. Playback based on acoustic signals
US11825290B2 (en) 2011-12-29 2023-11-21 Sonos, Inc. Media playback based on sensor data
US10334386B2 (en) 2011-12-29 2019-06-25 Sonos, Inc. Playback based on wireless signal
US11849299B2 (en) 2011-12-29 2023-12-19 Sonos, Inc. Media playback based on sensor data
US11197117B2 (en) 2011-12-29 2021-12-07 Sonos, Inc. Media playback based on sensor data
US11910181B2 (en) 2011-12-29 2024-02-20 Sonos, Inc Media playback based on sensor data
US11889290B2 (en) 2011-12-29 2024-01-30 Sonos, Inc. Media playback based on sensor data
US10045138B2 (en) 2012-06-28 2018-08-07 Sonos, Inc. Hybrid test tone for space-averaged room audio calibration using a moving microphone
US11064306B2 (en) 2012-06-28 2021-07-13 Sonos, Inc. Calibration state variable
US10129674B2 (en) 2012-06-28 2018-11-13 Sonos, Inc. Concurrent multi-loudspeaker calibration
US10412516B2 (en) 2012-06-28 2019-09-10 Sonos, Inc. Calibration of playback devices
US11368803B2 (en) 2012-06-28 2022-06-21 Sonos, Inc. Calibration of playback device(s)
US10791405B2 (en) 2012-06-28 2020-09-29 Sonos, Inc. Calibration indicator
US10045139B2 (en) 2012-06-28 2018-08-07 Sonos, Inc. Calibration state variable
US10296282B2 (en) 2012-06-28 2019-05-21 Sonos, Inc. Speaker calibration user interface
US11800305B2 (en) 2012-06-28 2023-10-24 Sonos, Inc. Calibration interface
US10674293B2 (en) 2012-06-28 2020-06-02 Sonos, Inc. Concurrent multi-driver calibration
US9913057B2 (en) 2012-06-28 2018-03-06 Sonos, Inc. Concurrent multi-loudspeaker calibration with a single measurement
US9961463B2 (en) 2012-06-28 2018-05-01 Sonos, Inc. Calibration indicator
US10284984B2 (en) 2012-06-28 2019-05-07 Sonos, Inc. Calibration state variable
US11516608B2 (en) 2012-06-28 2022-11-29 Sonos, Inc. Calibration state variable
US11516606B2 (en) 2012-06-28 2022-11-29 Sonos, Inc. Calibration interface
US11696081B2 (en) 2014-03-17 2023-07-04 Sonos, Inc. Audio settings based on environment
US10511924B2 (en) 2014-03-17 2019-12-17 Sonos, Inc. Playback device with multiple sensors
US10299055B2 (en) 2014-03-17 2019-05-21 Sonos, Inc. Restoration of playback device configuration
US10051399B2 (en) 2014-03-17 2018-08-14 Sonos, Inc. Playback device configuration according to distortion threshold
US10863295B2 (en) 2014-03-17 2020-12-08 Sonos, Inc. Indoor/outdoor playback device calibration
US11540073B2 (en) 2014-03-17 2022-12-27 Sonos, Inc. Playback device self-calibration
US9872119B2 (en) 2014-03-17 2018-01-16 Sonos, Inc. Audio settings of multiple speakers in a playback device
US10791407B2 (en) 2014-03-17 2020-09-29 Sonon, Inc. Playback device configuration
US10129675B2 (en) 2014-03-17 2018-11-13 Sonos, Inc. Audio settings of multiple speakers in a playback device
US10412517B2 (en) 2014-03-17 2019-09-10 Sonos, Inc. Calibration of playback device to target curve
CN110719561A (en) * 2014-09-09 2020-01-21 搜诺思公司 Computing device, computer readable medium, and method executed by computing device
JP2019068446A (en) * 2014-09-09 2019-04-25 ソノズ インコーポレイテッド Calibration of reproduction device
US11029917B2 (en) 2014-09-09 2021-06-08 Sonos, Inc. Audio processing algorithms
JP2017531377A (en) * 2014-09-09 2017-10-19 ソノズ インコーポレイテッド Playback device calibration
US9936318B2 (en) 2014-09-09 2018-04-03 Sonos, Inc. Playback device calibration
JP2017527223A (en) * 2014-09-09 2017-09-14 ソノズ インコーポレイテッド Playback device calibration
US10127008B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Audio processing algorithm database
JP2018023116A (en) * 2014-09-09 2018-02-08 ソノズ インコーポレイテッド Calibration of reproducing device
US11625219B2 (en) 2014-09-09 2023-04-11 Sonos, Inc. Audio processing algorithms
US10599386B2 (en) 2014-09-09 2020-03-24 Sonos, Inc. Audio processing algorithms
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US10271150B2 (en) 2014-09-09 2019-04-23 Sonos, Inc. Playback device calibration
US10701501B2 (en) 2014-09-09 2020-06-30 Sonos, Inc. Playback device calibration
US10154359B2 (en) 2014-09-09 2018-12-11 Sonos, Inc. Playback device calibration
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
US10284983B2 (en) 2015-04-24 2019-05-07 Sonos, Inc. Playback device calibration user interfaces
US10462592B2 (en) 2015-07-28 2019-10-29 Sonos, Inc. Calibration error conditions
US10129679B2 (en) 2015-07-28 2018-11-13 Sonos, Inc. Calibration error conditions
US11803350B2 (en) 2015-09-17 2023-10-31 Sonos, Inc. Facilitating calibration of an audio playback device
US9992597B2 (en) 2015-09-17 2018-06-05 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US11706579B2 (en) 2015-09-17 2023-07-18 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US10585639B2 (en) 2015-09-17 2020-03-10 Sonos, Inc. Facilitating calibration of an audio playback device
US11197112B2 (en) 2015-09-17 2021-12-07 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US11099808B2 (en) 2015-09-17 2021-08-24 Sonos, Inc. Facilitating calibration of an audio playback device
US10419864B2 (en) 2015-09-17 2019-09-17 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US10063983B2 (en) 2016-01-18 2018-08-28 Sonos, Inc. Calibration using multiple recording devices
US11432089B2 (en) 2016-01-18 2022-08-30 Sonos, Inc. Calibration using multiple recording devices
US10405117B2 (en) 2016-01-18 2019-09-03 Sonos, Inc. Calibration using multiple recording devices
US10841719B2 (en) 2016-01-18 2020-11-17 Sonos, Inc. Calibration using multiple recording devices
US11800306B2 (en) 2016-01-18 2023-10-24 Sonos, Inc. Calibration using multiple recording devices
US10735879B2 (en) 2016-01-25 2020-08-04 Sonos, Inc. Calibration based on grouping
US11006232B2 (en) 2016-01-25 2021-05-11 Sonos, Inc. Calibration based on audio content
US11516612B2 (en) 2016-01-25 2022-11-29 Sonos, Inc. Calibration based on audio content
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US10390161B2 (en) 2016-01-25 2019-08-20 Sonos, Inc. Calibration based on audio content type
US11184726B2 (en) 2016-01-25 2021-11-23 Sonos, Inc. Calibration using listener locations
US11379179B2 (en) 2016-04-01 2022-07-05 Sonos, Inc. Playback device calibration based on representative spectral characteristics
US10405116B2 (en) 2016-04-01 2019-09-03 Sonos, Inc. Updating playback device configuration information based on calibration data
US11212629B2 (en) 2016-04-01 2021-12-28 Sonos, Inc. Updating playback device configuration information based on calibration data
US10884698B2 (en) 2016-04-01 2021-01-05 Sonos, Inc. Playback device calibration based on representative spectral characteristics
US11736877B2 (en) 2016-04-01 2023-08-22 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US10402154B2 (en) 2016-04-01 2019-09-03 Sonos, Inc. Playback device calibration based on representative spectral characteristics
US10880664B2 (en) 2016-04-01 2020-12-29 Sonos, Inc. Updating playback device configuration information based on calibration data
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US10299054B2 (en) 2016-04-12 2019-05-21 Sonos, Inc. Calibration of audio playback devices
US10750304B2 (en) 2016-04-12 2020-08-18 Sonos, Inc. Calibration of audio playback devices
US10045142B2 (en) 2016-04-12 2018-08-07 Sonos, Inc. Calibration of audio playback devices
US11218827B2 (en) 2016-04-12 2022-01-04 Sonos, Inc. Calibration of audio playback devices
US11889276B2 (en) 2016-04-12 2024-01-30 Sonos, Inc. Calibration of audio playback devices
US11337017B2 (en) 2016-07-15 2022-05-17 Sonos, Inc. Spatial audio correction
US10129678B2 (en) 2016-07-15 2018-11-13 Sonos, Inc. Spatial audio correction
US10448194B2 (en) 2016-07-15 2019-10-15 Sonos, Inc. Spectral correction using spatial calibration
US10750303B2 (en) 2016-07-15 2020-08-18 Sonos, Inc. Spatial audio correction
US11736878B2 (en) 2016-07-15 2023-08-22 Sonos, Inc. Spatial audio correction
US11531514B2 (en) 2016-07-22 2022-12-20 Sonos, Inc. Calibration assistance
US11237792B2 (en) 2016-07-22 2022-02-01 Sonos, Inc. Calibration assistance
US10853022B2 (en) 2016-07-22 2020-12-01 Sonos, Inc. Calibration interface
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US11698770B2 (en) 2016-08-05 2023-07-11 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10853027B2 (en) 2016-08-05 2020-12-01 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10582326B1 (en) 2018-08-28 2020-03-03 Sonos, Inc. Playback device calibration
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US11877139B2 (en) 2018-08-28 2024-01-16 Sonos, Inc. Playback device calibration
US10848892B2 (en) 2018-08-28 2020-11-24 Sonos, Inc. Playback device calibration
US11350233B2 (en) 2018-08-28 2022-05-31 Sonos, Inc. Playback device calibration
US11374547B2 (en) 2019-08-12 2022-06-28 Sonos, Inc. Audio calibration of a portable playback device
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
US11728780B2 (en) 2019-08-12 2023-08-15 Sonos, Inc. Audio calibration of a portable playback device
US11983458B2 (en) 2022-12-14 2024-05-14 Sonos, Inc. Calibration assistance

Similar Documents

Publication Publication Date Title
JP2010081124A (en) Calibration method for intercom device
US10075783B2 (en) Acoustically summed reference microphone for active noise control
US9531433B2 (en) Echo cancellation methodology and assembly for electroacoustic communication apparatuses
US20140226836A1 (en) Voice input device and noise suppression method
US20090103704A1 (en) Voice information processing device and wiring system using the same device
CN111630871B (en) Sound output device
US20070071273A1 (en) Speaker
JP4893230B2 (en) Telephone device
JP5227123B2 (en) Intercom device
JP5372529B2 (en) Soundproof box
WO2019146095A1 (en) Audio output device
US20220394392A1 (en) Pickup sensor and bone-conduction speaker
KR102392460B1 (en) Apparatus and method of reducing noise
TW201340738A (en) Speaker damper and speaker apparatus having the damper
JP4966098B2 (en) Telephone device
JP3976077B1 (en) Telephone device
JP4432959B2 (en) Telephone device
JP4853382B2 (en) Telephone device
JP2009055483A (en) Intercom device
JP2008022515A (en) Speech apparatus
JP3976075B2 (en) Intercom device
JP4976921B2 (en) Telephone device
JP2008131508A (en) Speech communication device
JP4989372B2 (en) Telephone device
JP2015220499A (en) Acoustic device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120717