JP2007243772A - Signal processing apparatus - Google Patents

Signal processing apparatus Download PDF

Info

Publication number
JP2007243772A
JP2007243772A JP2006065463A JP2006065463A JP2007243772A JP 2007243772 A JP2007243772 A JP 2007243772A JP 2006065463 A JP2006065463 A JP 2006065463A JP 2006065463 A JP2006065463 A JP 2006065463A JP 2007243772 A JP2007243772 A JP 2007243772A
Authority
JP
Japan
Prior art keywords
signal
speaker
sound
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006065463A
Other languages
Japanese (ja)
Other versions
JP4285492B2 (en
Inventor
Takashi Yamakawa
高史 山川
Takao Nakatani
隆雄 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006065463A priority Critical patent/JP4285492B2/en
Publication of JP2007243772A publication Critical patent/JP2007243772A/en
Application granted granted Critical
Publication of JP4285492B2 publication Critical patent/JP4285492B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent howling from being generated within a service area of a speaker while preventing sound from being disabled to reach a listener. <P>SOLUTION: A distributor 100 distributes audio signals outputted from a microphone 30. One of the distributed audio signal is amplified and outputted to speaker units constituting a first speaker line of a speaker array 20. The other of the distributed audio signals is inputted to a howling detection section 110. The howling detection section 110 extracts an audio signal of a frequency band equal with or higher than a predetermined level in the frequency distribution of the inputted audio signals and outputs the extracted audio signal to a cancel sound generation section 120. The cancel sound generation section 120 inverts the phase of the inputted audio signal. The signal of an inverted amplitude level is delayed by a delay section DL and outputted to speaker units constituting a second speaker line in the speaker array 20. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

本発明は、ハウリングの発生を抑制する技術に関する。   The present invention relates to a technique for suppressing howling.

マイクロホンから入力した音声を増幅してスピーカから出力する音響機器においては、スピーカから出力された音声がマイクロホンに再入力することによって閉ループが形成され、耳障りで不快なハウリングが発生する場合がある。このハウリングを抑制する装置としては、種々の装置が提案されているが、その中には、例えば特許文献1に開示されているように、スピーカアレイを使用してハウリングを抑制する装置がある。
特許文献1に開示されている装置は、マイクロホンに入力された音を増幅してスピーカアレイから出力するとともに、マイクロホンに入力された音の位相を反転させ、この反転させた音のビームがスピーカアレイからマイクロホンに向けて出力されるようにスピーカアレイの指向性を制御する。これにより、マイクロホンの位置では、マイクロホンに入力された音と、この音の位相を反転させた音が供給されるので、音がキャンセルされて閉ループのゲインが抑えられ、ハウリングの発生が抑制される。
特表2003−510924号公報
In an acoustic device that amplifies sound input from a microphone and outputs the sound from a speaker, a closed loop may be formed by re-inputting the sound output from the speaker to the microphone, and unpleasant and unpleasant howling may occur. Various devices have been proposed as devices for suppressing this howling. Among them, for example, as disclosed in Patent Document 1, there is a device for suppressing howling using a speaker array.
The device disclosed in Patent Document 1 amplifies the sound input to the microphone and outputs it from the speaker array, inverts the phase of the sound input to the microphone, and the inverted sound beam is transmitted to the speaker array. The directivity of the speaker array is controlled so as to be output from the microphone to the microphone. As a result, at the position of the microphone, the sound input to the microphone and the sound obtained by inverting the phase of this sound are supplied, so that the sound is canceled and the closed loop gain is suppressed, and howling is suppressed. .
Japanese translation of PCT publication No. 2003-510924

ところで、特許文献1に開示された装置によれば、位相を反転させた音はマイクロホンに向けてビーム状に出力されるため、スピーカアレイから出力された音はマイクロホンの位置だけではなく、この音のビームが通過する領域においてもキャンセルされることとなる。例えば、スピーカアレイのサービスエリア内において、音のビームが通過する領域に聴者がいた場合、この聴者の位置ではスピーカアレイから出力された音はキャンセルされてしまい、聴者は音を聞けなくなってしまうという問題が生じることとなる。   By the way, according to the apparatus disclosed in Patent Document 1, since the sound whose phase is inverted is output in a beam shape toward the microphone, the sound output from the speaker array is not only the position of the microphone but also this sound. Even in the region where the beam passes, it will be canceled. For example, if there is a listener in the area where the sound beam passes in the service area of the speaker array, the sound output from the speaker array is canceled at the position of the listener, and the listener cannot hear the sound. Problems will arise.

本発明は、上述した背景の下になされたものであり、その目的は、聴者に音が届かなくなるのを防ぎつつ、スピーカのサービスエリア内においてハウリングを発生させないようにすることにある。   The present invention has been made under the background described above, and an object of the present invention is to prevent howling from occurring in the service area of the speaker while preventing the sound from reaching the listener.

上述した課題を解決するために本発明は、少なくとも2以上のグループにグループ分けされた複数のスピーカユニットを備えるスピーカアレイへ音声信号を出力する信号処理装置であって、音声を表す音声信号が入力される信号入力手段と、前記信号入力手段に入力された音声信号を、前記グループの第1グループに属するスピーカユニットへ出力する信号出力手段と、前記信号入力手段に入力された音声信号の周波数分布を解析する解析手段と、前記解析手段により求められた周波数分布において、所定のレベル以上となっている周波数帯域の音声信号を抽出する抽出手段と、前記抽出手段で抽出された音声信号の位相を反転させた位相反転信号を生成する反転信号生成手段と、前記反転信号生成手段で生成された反転信号を、前記グループの第2グループに属するスピーカユニットの数に対応させて分岐させる分岐手段と、前記分岐手段で分岐された反転信号を加工して前記第2グループに属するスピーカユニット群へ出力する手段であって、前記第1グループに属するスピーカユニットへ出力された音声信号が表す音声と前記反転信号が表す音声とが、前記スピーカアレイから出力される音が拡散する領域内の特定位置において重なるように前記反転信号を加工して出力する信号加工手段とを備える信号処理装置を提供する。   In order to solve the above-described problems, the present invention is a signal processing apparatus that outputs an audio signal to a speaker array including a plurality of speaker units grouped into at least two or more groups, and an audio signal representing audio is input. Signal input means, signal output means for outputting audio signals input to the signal input means to speaker units belonging to the first group of the group, and frequency distribution of the audio signals input to the signal input means Analyzing means for extracting a sound signal in a frequency band that is equal to or higher than a predetermined level in the frequency distribution obtained by the analyzing means, and a phase of the sound signal extracted by the extracting means An inverted signal generating means for generating an inverted phase inverted signal and an inverted signal generated by the inverted signal generating means are Branching means for branching corresponding to the number of speaker units belonging to the second group, and means for processing the inverted signal branched by the branching means and outputting the processed signal to the speaker unit group belonging to the second group, The inverted signal so that the voice represented by the voice signal output to the speaker unit belonging to the first group and the voice represented by the inverted signal overlap at a specific position in a region where the sound output from the speaker array is diffused. And a signal processing means for processing and outputting the signal.

この態様においては、前記信号入力手段に音声信号を入力するマイクロホンの位置を検出する位置検出手段を有し、前記信号加工手段は、前記位置検出手段で検出された位置を前記特定位置とすることようにしてもよい。
また、前記信号加工手段は、前記反転信号が表す音声の音響ビームが前記第2グループに属するスピーカユニット群から複数出力されるように前記分岐手段により分岐された各音声信号を加工して出力するようにしてもよい。
また、前記信号加工手段は、前記複数の各音響ビームの音声のレベルを加算すると、前記第1グループに属するスピーカユニットから出力された音声のレベルと同じとなるように、前記分岐手段により分岐された各音声信号を加工して出力するようにしてもよい。
In this aspect, the signal input unit has a position detection unit that detects a position of a microphone that inputs an audio signal, and the signal processing unit sets the position detected by the position detection unit as the specific position. You may do it.
The signal processing means processes and outputs each of the sound signals branched by the branching means so that a plurality of sound beams of the sound represented by the inverted signal are output from the speaker unit group belonging to the second group. You may do it.
Further, the signal processing means is branched by the branching means so that when the sound levels of the plurality of acoustic beams are added, the signal processing means becomes the same as the sound level output from the speaker unit belonging to the first group. Each audio signal may be processed and output.

また、本発明は、少なくとも2以上のグループにグループ分けされた複数のスピーカユニットを備えるスピーカアレイへ音声信号を出力する信号処理装置であって、音声を表す音声信号が入力される信号入力手段と、前記信号入力手段に入力された音声信号の周波数分布を解析する解析手段と、前記解析手段により求められた周波数分布において、所定のレベル未満となっている周波数帯域の音声信号を抽出する第1抽出手段と、前記解析手段により求められた周波数分布において、所定のレベル以上となっている周波数帯域の音声信号を抽出する第2抽出手段と、第1抽出手段により抽出された音声信号を、前記グループの第1グループに属するスピーカユニットへ出力する信号出力手段と、前記第2抽出手段により抽出された音声信号を、前記グループの第2グループに属するスピーカユニットの数に対応させて分岐させる分岐手段と、前記分岐手段により分岐された各音声信号を加工して前記第2グループに属するスピーカユニットへ出力する手段であって、該第2グループに属するスピーカユニット群から出力される音響ビームの指向方向が特定方向となるように、前記分岐手段により分岐された各音声信号を加工して出力する信号加工手段とを備える信号処理装置を提供する。   The present invention also provides a signal processing device that outputs a sound signal to a speaker array including a plurality of speaker units grouped into at least two or more groups, and a signal input unit that receives a sound signal representing sound. Analyzing means for analyzing the frequency distribution of the audio signal input to the signal input means; and extracting the audio signal in a frequency band that is less than a predetermined level in the frequency distribution obtained by the analyzing means. An extraction means; a second extraction means for extracting an audio signal in a frequency band having a predetermined level or higher in the frequency distribution obtained by the analysis means; and an audio signal extracted by the first extraction means, The signal output means for outputting to the speaker units belonging to the first group of the group, and the audio signal extracted by the second extraction means Branching means for branching according to the number of speaker units belonging to the second group of the group, and means for processing each audio signal branched by the branching means and outputting the processed signals to the speaker units belonging to the second group. And a signal processing means for processing and outputting each audio signal branched by the branch means so that the directivity direction of the acoustic beam output from the speaker unit group belonging to the second group is a specific direction. A signal processing apparatus is provided.

この態様においては、前記信号入力手段に音声信号を入力するマイクロホンの位置を検出する位置検出手段を有し、前記信号加工手段は、前記第2グループに属するスピーカユニット群から出力される音響ビームの指向方向が前記位置検出手段で検出された位置の方向とならないように、前記分岐手段により分岐された各音声信号を加工して出力するようにしてもよい。   In this aspect, the signal input unit includes a position detection unit that detects a position of a microphone that inputs an audio signal, and the signal processing unit transmits an acoustic beam output from the speaker unit group belonging to the second group. Each audio signal branched by the branching unit may be processed and output so that the directing direction does not coincide with the direction of the position detected by the position detecting unit.

本発明によれば、聴者に音が届かなくなるのを防ぎつつ、スピーカのサービスエリア内においてハウリングを発生させないようにすることができる。   According to the present invention, it is possible to prevent howling from occurring in the service area of the speaker while preventing the sound from reaching the listener.

[第1実施形態]
[実施形態の構成]
図1は、本発明の第1実施形態に係わるスピーカシステム1の全体構成を示した図である。図1に示したように、スピーカシステム1は、信号処理装置10と、スピーカアレイ20と、マイクロホン30とを備えている。
[First Embodiment]
[Configuration of the embodiment]
FIG. 1 is a diagram showing an overall configuration of a speaker system 1 according to the first embodiment of the present invention. As shown in FIG. 1, the speaker system 1 includes a signal processing device 10, a speaker array 20, and a microphone 30.

図2は、スピーカアレイ20の正面図である。図2に示したように、スピーカアレイ20においては、スピーカユニットSPを水平方向にn個並べたスピーカラインが垂直方向に2行並べられている。このスピーカアレイ20を構成するスピーカユニットSP(i,j)(i=1〜2、j=1〜n)は、例えば、コーン型スピーカなどの指向性の広いスピーカであり、各スピーカユニットSPは、その指向方向が平行となるようにスピーカアレイ20の筐体に取り付けられている。   FIG. 2 is a front view of the speaker array 20. As shown in FIG. 2, in the speaker array 20, two speaker lines in which n speaker units SP are arranged in the horizontal direction are arranged in the vertical direction. The speaker units SP (i, j) (i = 1 to 2, j = 1 to n) constituting the speaker array 20 are, for example, wide directivity speakers such as cone speakers, and each speaker unit SP is The speaker array 20 is attached so that the directing directions thereof are parallel to each other.

マイクロホン30は、信号処理装置10に接続されており、マイクロホン30の周囲にいる人間P1〜P7が発する音声を収音し、収音した音声をアナログの音声信号に変換して信号処理装置10に出力する。信号処理装置10は、マイクロホン30から供給された音声信号を加工してスピーカアレイ20に出力する。これにより、マイクロホン30で収音された音声がスピーカアレイ20から出力される。   The microphone 30 is connected to the signal processing device 10, collects sounds emitted by humans P <b> 1 to P <b> 7 around the microphone 30, converts the collected sounds into analog audio signals, and supplies them to the signal processing device 10. Output. The signal processing device 10 processes the audio signal supplied from the microphone 30 and outputs it to the speaker array 20. Thereby, the sound collected by the microphone 30 is output from the speaker array 20.

[信号処理装置10の構成]
図3は、信号処理装置10の具体的なハードウェア構成を示したブロック図である。マイクロホン30から出力された音声信号は、まず分配器100に入力される。分配器100は、入力された音声信号を分配するものであり、分配した音声信号の一方をアンプ部AMP(1,1)〜アンプ部AMP(1,n)へ出力し、分配したもう一方の音声信号をハウリング検出部110へ出力する。
[Configuration of Signal Processing Device 10]
FIG. 3 is a block diagram illustrating a specific hardware configuration of the signal processing apparatus 10. The audio signal output from the microphone 30 is first input to the distributor 100. The distributor 100 distributes the input audio signal, and outputs one of the distributed audio signals to the amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n) and distributes the other audio signal. The audio signal is output to the howling detection unit 110.

ハウリング検出部110は、スピーカシステム1においてハウリングを生じさせる音の周波数帯域を検出するものである。ハウリング検出部110は、分配器100から入力された音声信号をフーリエ変換し、音声信号が表す音声の周波数スペクトラムを求める。この周波数スペクトラムにおいて、レベルの大きな周波数帯域がある場合、その周波数帯域に属する音声が閉ループを形成してハウリングが発生する可能性がある。ハウリング検出部110は、求めた周波数スペクトラムにおいて、予め定められた閾値th以上のレベルとなった周波数帯域を、ハウリングを生じさせている周波数帯域として検出する。そして、この検出した周波数帯域に属する音声信号のみをフィルタ処理により抽出してキャンセル音生成部120へ出力する。   The howling detection unit 110 detects a frequency band of sound that causes howling in the speaker system 1. The howling detection unit 110 performs a Fourier transform on the audio signal input from the distributor 100 to obtain a frequency spectrum of the audio represented by the audio signal. If there is a frequency band with a large level in this frequency spectrum, there is a possibility that sound belonging to that frequency band forms a closed loop and howling occurs. The howling detection unit 110 detects a frequency band having a level equal to or higher than a predetermined threshold th in the obtained frequency spectrum as a frequency band causing howling. Then, only the audio signal belonging to the detected frequency band is extracted by the filtering process and is output to the canceling sound generation unit 120.

キャンセル音生成部120は、ハウリング検出部110から出力された音声信号の位相を反転させた反転信号を生成する。そして、この生成した反転信号を遅延部DL1〜DLnへ出力する。   The cancel sound generator 120 generates an inverted signal obtained by inverting the phase of the audio signal output from the howling detector 110. Then, the generated inverted signal is output to the delay units DL1 to DLn.

遅延部DL1〜遅延部DLnは、入力される反転信号を遅延させるものである。各遅延部DLにおいては予め遅延量が定められており、入力された反転信号を、この定められた遅延量の分だけ遅延させる。そして遅延させた反転信号をアンプ部AMP(2,1)〜アンプ部AMP(2,n)に出力する。   The delay units DL1 to DLn delay the input inverted signal. Each delay unit DL has a predetermined delay amount, and delays the input inverted signal by the predetermined delay amount. The delayed inverted signal is output to the amplifier unit AMP (2, 1) to the amplifier unit AMP (2, n).

アンプ部AMP(1,1)〜アンプ部AMP(1,n)は、スピーカアレイ20の1行目のスピーカラインを構成するスピーカユニットSP(1,1)〜スピーカユニットSP(1,n)に接続され、アンプ部AMP(2,1)〜アンプ部AMP(2,n)は、スピーカアレイ20の2行目のスピーカラインを構成するスピーカユニットSP(2,1)〜スピーカユニットSP(2,n)に接続されている。アンプ部AMP(1,1)〜アンプ部AMP(1,n)は、分配器100から入力される音声信号を増幅してスピーカユニットSP(1,1)〜スピーカユニット(1,n)に出力する。また、アンプ部AMP(2,1)〜アンプ部AMP(2,n)は、遅延部DL1〜DLnから入力される反転信号を増幅してスピーカユニットSP(2,1)〜スピーカユニット(2,n)に出力する。各アンプ部AMPで増幅された信号が、接続されているスピーカユニットSPに出力されると音声が各スピーカユニットSPから出力される。   The amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n) are connected to the speaker unit SP (1, 1) to the speaker unit SP (1, n) constituting the speaker line of the first row of the speaker array 20. The amplifier units AMP (2, 1) to AMP (2, n) are connected to the speaker units SP (2, 1) to SP (2, 2) constituting the speaker line of the second row of the speaker array 20. n). The amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n) amplify the audio signal input from the distributor 100 and output it to the speaker unit SP (1, 1) to the speaker unit (1, n). To do. The amplifier unit AMP (2, 1) to the amplifier unit AMP (2, n) amplify the inverted signal input from the delay units DL1 to DLn, and the speaker unit SP (2, 1) to the speaker unit (2, output to n). When the signal amplified by each amplifier unit AMP is output to the connected speaker unit SP, sound is output from each speaker unit SP.

[実施形態の動作]
次に本実施形態の動作について説明する。例えば、図1に示した人間P1が発話すると、人間P1の音声がマイクロホン30により収音される。この収音された音声は、マイクロホン30によりアナログの音声信号に変換されて信号処理装置10の分配器100に入力される。そして、この音声信号は分配器100により分配され、アンプ部AMP(1,1)〜アンプ部AMP(1,n)と、ハウリング検出部110とに出力される。
[Operation of the embodiment]
Next, the operation of this embodiment will be described. For example, when the person P1 shown in FIG. 1 speaks, the voice of the person P1 is collected by the microphone 30. The collected sound is converted into an analog sound signal by the microphone 30 and input to the distributor 100 of the signal processing apparatus 10. The audio signal is distributed by the distributor 100 and output to the amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n) and the howling detection unit 110.

このうち、アンプ部AMP(1,1)〜アンプ部AMP(1,n)に入力された音声信号は、各アンプ部AMPで増幅された後、各アンプ部AMPに接続されたスピーカユニットSP(1,1)〜スピーカユニットSP(1,n)に出力される。スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)に音声信号が入力されると、入力された音声信号に対応した音声がスピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力される。これにより、マイクロホン30で収音された音声(人間P1の音声)が、図4に示したように領域A(点線で囲まれた領域)に出力される。   Among these, the audio signals input to the amplifier units AMP (1,1) to AMP (1, n) are amplified by the amplifier units AMP and then connected to the amplifier units AMP. 1,1) to speaker unit SP (1, n). When an audio signal is input to speaker unit SP (1, 1) to speaker unit SP (1, n), audio corresponding to the input audio signal is output from speaker unit SP (1, 1) to speaker unit SP (1. , N). As a result, the sound collected by the microphone 30 (the sound of the human P1) is output to the area A (area surrounded by a dotted line) as shown in FIG.

一方、分配器100から出力されてハウリング検出部110に入力された音声信号は、ハウリング検出部110においてフーリエ変換される。入力された音声信号がフーリエ変換されると、例えば図5に示したように、音声信号が表す音声の周波数スペクトラムが求められる。ここで、ハウリング検出部110は、この求めた周波数スペクトラムにおいて、予め定められた閾値th以上のレベルとなった周波数帯域f1を検出すると、この周波数帯域f1をハウリングを生じさせている周波数帯域と特定する。そして、この特定した周波数帯域f1に属する音声信号のみがフィルタ処理により抽出されてキャンセル音生成部120へ出力される。   On the other hand, the audio signal output from the distributor 100 and input to the howling detection unit 110 is subjected to Fourier transform in the howling detection unit 110. When the input audio signal is Fourier transformed, for example, as shown in FIG. 5, the frequency spectrum of the audio represented by the audio signal is obtained. Here, when the howling detection unit 110 detects a frequency band f1 having a level equal to or higher than a predetermined threshold th in the obtained frequency spectrum, the howling detection unit 110 identifies the frequency band f1 as a frequency band causing howling. To do. Then, only the audio signal belonging to the specified frequency band f1 is extracted by the filtering process and output to the cancellation sound generation unit 120.

キャンセル音生成部120は、周波数帯域f1に属する音声信号が入力されると、入力された音声信号の位相を反転させた反転信号を生成して遅延部DL1〜DLnへ出力する。既知のとおり、スピーカアレイにおいては、各スピーカユニットに供給する信号の遅延量を制御することにより、スピーカアレイから出力される音響ビームを制御することができる。
本実施形態においては、スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力された音声と、反転信号が表す音声(周波数帯域f1に属する音声の位相を反転させた音声)とがマイクロホン30の位置で重なるようにするために、アンプ部AMP(2,1)〜アンプ部AMP(2,n)に入力される反転信号の遅延量が予め各遅延部DLに設定されている。各遅延部DLは入力された反転信号を、この設定されている遅延量の分だけ遅延させ、各遅延部DLは、遅延させた反転信号をアンプ部AMP(2,1)〜アンプ部AMP(2,n)に出力する。
When an audio signal belonging to the frequency band f1 is input, the cancel sound generator 120 generates an inverted signal obtained by inverting the phase of the input audio signal and outputs the inverted signal to the delay units DL1 to DLn. As is known, in the speaker array, the acoustic beam output from the speaker array can be controlled by controlling the delay amount of the signal supplied to each speaker unit.
In the present embodiment, the sound output from the speaker unit SP (1,1) to the speaker unit SP (1, n) and the sound represented by the inverted signal (the sound in which the phase of the sound belonging to the frequency band f1 is inverted) Are overlapped at the position of the microphone 30, the delay amount of the inverted signal input to the amplifier unit AMP (2, 1) to the amplifier unit AMP (2, n) is set in advance in each delay unit DL. Yes. Each delay unit DL delays the input inverted signal by the set delay amount, and each delay unit DL transmits the delayed inverted signal to the amplifier unit AMP (2, 1) to amplifier unit AMP ( 2, n).

アンプ部AMP(2,1)〜アンプ部AMP(2,n)に入力された反転信号は、各アンプ部AMPで増幅された後、各アンプ部AMPに接続されたスピーカユニットSP(2,1)〜スピーカユニットSP(2,n)に出力される。スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)は、反転信号が入力されると、入力された信号に対応した音を出力する。ここで、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)に入力される信号は、上述したように遅延されているため、スピーカユニットSP(2,1)ないしスピーカユニットSP(2,n)から出力される音は、その指向方向がマイクロホン30の方向になり、図4に示したようにマイクロホン30の位置を含む領域Bに出力される。   The inverted signals input to the amplifier units AMP (2, 1) to AMP (2, n) are amplified by the amplifier units AMP and then connected to the speaker units SP (2, 1). To speaker unit SP (2, n). When the inverted signal is input, the speaker unit SP (2, 1) to the speaker unit SP (2, n) outputs a sound corresponding to the input signal. Here, since the signals input to the speaker units SP (2, 1) to SP (2, n) are delayed as described above, the speaker units SP (2, 1) to SP ( 2, n), the direction of the sound is the direction of the microphone 30 and is output to the region B including the position of the microphone 30 as shown in FIG.

ここで、領域Bに出力される音は、周波数帯域f1に属する音声の位相を反転させた音であり、マイクロホン30の位置においては、スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力された音声と、周波数帯域f1に属する音声の位相を反転させた音声とがマイクロホン30の位置で重なり、この周波数帯域f1に属する音声、即ち、ハウリングを生じさせる周波数帯域の音声がキャンセルされる。周波数帯域f1に属する音声がキャンセルされると、マイクロホン30の位置において、この周波数帯域f1に属する音のレベルが下がり、スピーカシステム1において閉ループのループゲインが抑えられ(ループゲインが減り)ハウリングの発生が抑制される。   Here, the sound output to the region B is a sound obtained by inverting the phase of the sound belonging to the frequency band f1, and at the position of the microphone 30, the speaker unit SP (1, 1) to the speaker unit SP (1, The sound output from n) and the sound obtained by inverting the phase of the sound belonging to the frequency band f1 overlap at the position of the microphone 30, and the sound belonging to this frequency band f1, that is, the sound in the frequency band causing howling, is obtained. Canceled. When the sound belonging to the frequency band f1 is canceled, the level of the sound belonging to the frequency band f1 is lowered at the position of the microphone 30, and the closed loop gain in the speaker system 1 is suppressed (the loop gain is reduced), and howling occurs. Is suppressed.

以上説明したように本実施形態によれば、スピーカアレイ20のサービスエリア内において、ハウリングを発生させる周波数帯域に属する音のみがキャンセルされ、他の周波数帯域に属する音はキャンセルされないので、サービスエリア内にいる聴者が音を聞けなくなるといった問題が生じることがない。   As described above, according to the present embodiment, in the service area of the speaker array 20, only sounds belonging to the frequency band that generates howling are canceled, and sounds belonging to other frequency bands are not canceled. There will be no problem that the listener in the room cannot hear the sound.

[第2実施形態]
次に本発明の第2実施形態について説明する。本実施形態においては、信号処理装置の構成と、スピーカアレイおよびマイクロホンの構成が第1実施形態と異なる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the configuration of the signal processing device and the configurations of the speaker array and the microphone are different from those of the first embodiment.

図6は、本実施形態に係わるスピーカアレイ20Aの正面図である。図6に示したように、このスピーカアレイ20Aには、センサSE1〜センサSE3が設けられている。センサSE1〜センサSE3は音波を検出するセンサであり、音波を検出すると音波を検出したことを示す信号を信号処理装置10Aに出力する。   FIG. 6 is a front view of the speaker array 20A according to the present embodiment. As shown in FIG. 6, the speaker array 20A is provided with sensors SE1 to SE3. Sensors SE1 to SE3 are sensors that detect sound waves. When sound waves are detected, a signal indicating that sound waves have been detected is output to the signal processing device 10A.

図7は、本実施形態に係わるマイクロホン30Aのハードウェア構成を示したブロック図である。マイクユニット31は、収音した音声をアナログの音声信号に変換して出力する。音波出力部32は、信号処理装置10Aに接続されており、信号処理装置10Aから入力される指示信号S1に応じて音波を出力する。   FIG. 7 is a block diagram showing a hardware configuration of the microphone 30A according to the present embodiment. The microphone unit 31 converts the collected sound into an analog sound signal and outputs it. The sound wave output unit 32 is connected to the signal processing device 10A, and outputs sound waves according to the instruction signal S1 input from the signal processing device 10A.

図8は、本実施形態に係わる信号処理装置10Aの具体的なハードウェア構成を示したブロック図である。制御部130は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えたワンチップ型のマイクロコンピュータであり、ROMに記憶されているプログラムに従って動作し、遅延部DL1〜遅延部DLnを制御する。また、制御部130にはスピーカアレイ20AのセンサSE1〜センサSE3が接続されており、センサSE1〜センサSE3から出力された信号が入力される。また、制御部130にはマイクロホン30Aの音波出力部32が接続されており、制御部130は、音波の出力を指示する指示信号S1を音波出力部32に出力する。また、制御部130は、センサSE1からセンサSE2までの距離と、センサSE2からセンサSE3までの距離を予め記憶している。   FIG. 8 is a block diagram showing a specific hardware configuration of the signal processing apparatus 10A according to the present embodiment. The control unit 130 is a one-chip type microcomputer including, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and operates according to a program stored in the ROM. The unit DL1 to the delay unit DLn are controlled. The controller 130 is connected to the sensors SE1 to SE3 of the speaker array 20A and receives signals output from the sensors SE1 to SE3. In addition, the sound wave output unit 32 of the microphone 30 </ b> A is connected to the control unit 130, and the control unit 130 outputs an instruction signal S <b> 1 instructing the output of the sound wave to the sound wave output unit 32. Further, the control unit 130 stores in advance the distance from the sensor SE1 to the sensor SE2 and the distance from the sensor SE2 to the sensor SE3.

[第2実施形態の動作]
次に本実施形態の動作について説明する。まず、制御部130は音波の出力を指示する指示信号S1を音波出力部32に出力する。また制御部130は、指示信号S1を出力してから経過した時間の計時を開始する。制御部130から出力された指示信号S1が音波出力部32に入力されると音波出力部32から音波が出力される。
[Operation of Second Embodiment]
Next, the operation of this embodiment will be described. First, the control unit 130 outputs an instruction signal S <b> 1 instructing the output of sound waves to the sound wave output unit 32. In addition, the control unit 130 starts measuring the time that has elapsed since the instruction signal S1 was output. When the instruction signal S <b> 1 output from the control unit 130 is input to the sound wave output unit 32, sound waves are output from the sound wave output unit 32.

音波出力部32から出力された音波は、センサSE1〜センサSE3に到達する。音波がセンサSE1〜センサSE3に到達すると、音波を検出したことを示す信号が各センサSEから出力される。ここで、マイクロホン30Aから各センサSEまでの距離は、マイクロホン30Aの位置に応じて異なるため、音波を検出したことを示す信号が各センサから出力されるタイミングはセンサ毎に異なることとなる。各センサから出力された信号が制御部130に入力されると、制御部130は、指示信号S1を出力してからセンサSE1からの信号が入力されるまでの時間t1、指示信号S1を出力してからセンサSE2からの信号が入力されるまでの時間t2、指示信号S1を出力してからセンサSE3からの信号が入力されるまでの時間t3を計時する。   The sound wave output from the sound wave output unit 32 reaches the sensors SE1 to SE3. When the sound wave reaches the sensors SE1 to SE3, a signal indicating that the sound wave has been detected is output from each sensor SE. Here, since the distance from the microphone 30A to each sensor SE differs according to the position of the microphone 30A, the timing at which a signal indicating that a sound wave has been detected is output from each sensor. When the signal output from each sensor is input to the control unit 130, the control unit 130 outputs the instruction signal S1, the time t1 from the output of the instruction signal S1 to the input of the signal from the sensor SE1. Time t2 until the signal from the sensor SE2 is inputted, and time t3 from when the instruction signal S1 is outputted until the signal from the sensor SE3 is inputted.

次に制御部130は、時間t1に音速を乗じることにより音波出力部32からセンサSE1までの距離d1を求める。また制御部130は、これと同様にして、時間t2に音速を乗じることにより音波出力部32からセンサSE2までの距離d2を求め、時間t3に音速を乗じることにより音波出力部32からセンサSE3までの距離d3を求める。距離d1、d2およびd3とが得られると、各センサ間の距離は予め記憶しているため、制御部130は、三辺測量の原理により、スピーカアレイ20Aに対するマイクロホン30Aの位置(距離、方向)を得る。   Next, the control unit 130 obtains the distance d1 from the sound wave output unit 32 to the sensor SE1 by multiplying the time t1 by the speed of sound. Similarly, the control unit 130 obtains a distance d2 from the sound wave output unit 32 to the sensor SE2 by multiplying the time t2 by the sound speed, and multiplies the sound speed by the time t3 from the sound wave output unit 32 to the sensor SE3. The distance d3 is obtained. When the distances d1, d2, and d3 are obtained, the distances between the sensors are stored in advance. Therefore, the control unit 130 determines the position (distance, direction) of the microphone 30A with respect to the speaker array 20A according to the principle of triangulation. Get.

制御部130は、マイクロホン30Aの位置を特定すると、スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力された音声と、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)から出力された音声がマイクロホン30Aの位置で重なるように、遅延部DL1〜遅延部DLnの遅延量を制御する。遅延部DL1〜遅延部DLnの遅延量が制御されると、各遅延部DLにおいては、キャンセル音生成部120から出力される反転信号の遅延量が設定された遅延量となり、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)から出力される音の指向方向が、マイクロホン30Aの方向となる。例えば、図9に示した位置にマイクロホン30Aが位置する場合、スピーカユニットSP(2,1)ないしスピーカユニットSP(2,n)から出力される音は、その指向方向がマイクロホン30Aの方向になり、図9に示したようにマイクロホン30Aの位置を含む領域Bに出力される。なお、制御部130は、マイクロホン30Aの位置を検出するための上述した処理を所定の周期で行うことにより、マイクロホン30Aの位置を常時検知し、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)から出力される音の指向方向を、検知した方向に応じて制御する。   When the position of the microphone 30A is specified, the control unit 130 outputs the sound output from the speaker unit SP (1, 1) to the speaker unit SP (1, n) and the speaker unit SP (2, 1) to the speaker unit SP ( 2, n), the delay amounts of the delay units DL1 to DLn are controlled so that the sound output from the microphone 30A overlaps. When the delay amount of the delay unit DL1 to the delay unit DLn is controlled, in each delay unit DL, the delay amount of the inverted signal output from the cancellation sound generation unit 120 becomes the set delay amount, and the speaker unit SP (2 , 1)-The direction of sound output from the speaker unit SP (2, n) is the direction of the microphone 30A. For example, when the microphone 30A is located at the position shown in FIG. 9, the sound output from the speaker unit SP (2,1) to the speaker unit SP (2, n) is directed in the direction of the microphone 30A. As shown in FIG. 9, the signal is output to the region B including the position of the microphone 30A. The control unit 130 constantly detects the position of the microphone 30A by performing the above-described process for detecting the position of the microphone 30A at a predetermined cycle, and the speaker unit SP (2, 1) to the speaker unit SP ( 2, the direction of sound output from n) is controlled according to the detected direction.

これにより、第1実施形態と同様にマイクロホン30Aの位置には、周波数帯域f1に属する音声の位相を反転させた音が出力され、ハウリングを生じさせる周波数帯域f1の音がキャンセルされる。周波数帯域f1に属する音声がキャンセルされると、マイクロホン30Aの位置において、この周波数帯域f1に属する音のレベルが下がり、スピーカシステム1において閉ループのループゲインが抑えられ、ハウリングの発生が抑制される。   As a result, as in the first embodiment, a sound obtained by inverting the phase of the sound belonging to the frequency band f1 is output to the position of the microphone 30A, and the sound in the frequency band f1 that causes howling is canceled. When the sound belonging to the frequency band f1 is canceled, the level of the sound belonging to the frequency band f1 is lowered at the position of the microphone 30A, the closed loop gain in the speaker system 1 is suppressed, and howling is suppressed.

本実施形態においては、マイクロホン30Aの位置を検出して、その位置に応じて、ハウリングの発生を抑制する音の指向性が制御されるので、マイクロホン30Aの位置が変化してもハウリングの発生を抑制することができる。   In this embodiment, the position of the microphone 30A is detected, and the directivity of the sound that suppresses howling is controlled according to the position, so that howling is generated even if the position of the microphone 30A changes. Can be suppressed.

[第3実施形態]
次に本発明の第3実施形態について説明する。本実施形態においては、信号処理装置の構成とスピーカアレイの構成が第2実施形態と異なる。なお、他の部分の構成は、第2実施形態と同じになっている。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the present embodiment, the configuration of the signal processing device and the configuration of the speaker array are different from those of the second embodiment. In addition, the structure of the other part is the same as 2nd Embodiment.

図10は、本実施形態に係わる信号処理装置10Bの具体的なハードウェア構成を示したブロック図である。信号処理装置10Bは、分配器100、ハウリング検出部110、キャンセル音生成部120を具備しておらず、代わりに遅延部DL(1,1)〜遅延部(1,n)と遅延部DL(2,1)〜遅延部(2,n)を具備している。各遅延部DLには、マイクロホン30Aから出力された音声信号が入力される。遅延部DL(1,1)〜遅延部(1,n)は、アンプ部AMP(1,1)〜アンプ部AMP(1,n)に接続されており、接続されているアンプ部AMPに出力する信号を制御部130により設定される遅延量に応じて遅延させる。また、遅延部DL(2,1)〜遅延部(2,n)は、アンプ部AMP(2,1)〜アンプ部AMP(2,n)に接続されており、接続されているアンプ部AMPに出力する信号を制御部130により設定される遅延量に応じて遅延させる。
また、本実施形態においては、図11に示したように、スピーカユニットSP(1,1)〜スピーカユニット(1,n)は、スピーカアレイ20Bに向かって右半分側に配設されており、スピーカユニットSP(2,1)〜スピーカユニット(2,n)は、スピーカアレイ20Bに向かって左半分側に配設されている。
FIG. 10 is a block diagram showing a specific hardware configuration of the signal processing apparatus 10B according to the present embodiment. The signal processing device 10B does not include the distributor 100, the howling detection unit 110, and the cancellation sound generation unit 120. Instead, the delay unit DL (1, 1) to the delay unit (1, n) and the delay unit DL ( 2,1) to delay unit (2, n). The audio signal output from the microphone 30A is input to each delay unit DL. The delay unit DL (1, 1) to the delay unit (1, n) are connected to the amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n) and output to the connected amplifier unit AMP. The signal to be delayed is delayed according to the delay amount set by the control unit 130. Further, the delay unit DL (2,1) to the delay unit (2, n) are connected to the amplifier unit AMP (2,1) to the amplifier unit AMP (2, n), and the connected amplifier unit AMP. Is delayed according to the delay amount set by the control unit 130.
In the present embodiment, as shown in FIG. 11, the speaker units SP (1, 1) to (1, n) are arranged on the right half side toward the speaker array 20B. Speaker unit SP (2, 1) to speaker unit (2, n) are arranged on the left half side toward speaker array 20B.

[第3実施形態の動作]
次に本実施形態の動作について説明する。まず制御部130は、音波の出力を指示する指示信号S1を音波出力部32に出力し、指示信号S1を出力してからセンサSE1〜センサSE3が出力した信号を検知するまでの時間を計時することにより、第2実施形態と同様にマイクロホン30Aの位置を得る。
[Operation of Third Embodiment]
Next, the operation of this embodiment will be described. First, the control unit 130 outputs the instruction signal S1 instructing the output of the sound wave to the sound wave output unit 32, and measures the time from when the instruction signal S1 is output until the signals output from the sensors SE1 to SE3 are detected. Thus, the position of the microphone 30A is obtained as in the second embodiment.

制御部130は、マイクロホン30Aの位置を特定すると、スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力される音が図12に示したように、スピーカアレイ20Bから見てマイクロホン30Aの左側の領域Cに出力されるように、遅延部DL(1,1)〜遅延部DL(1,n)の遅延量を制御する。遅延部DL(1,1)〜遅延部DL(1,n)の遅延量が制御されると、各遅延部DLにおいては、マイクロホン30Aから出力された音声信号の遅延量が設定された遅延量となり、スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力される音が、図12に示したように領域Cに出力される。   When the control unit 130 specifies the position of the microphone 30A, the sound output from the speaker unit SP (1, 1) to the speaker unit SP (1, n) is viewed from the speaker array 20B as shown in FIG. The delay amounts of the delay units DL (1, 1) to DL (1, n) are controlled so as to be output to the region C on the left side of the microphone 30A. When the delay amounts of the delay units DL (1, 1) to DL (1, n) are controlled, the delay amounts in which the delay amount of the audio signal output from the microphone 30A is set in each delay unit DL. Thus, the sound output from the speaker unit SP (1, 1) to the speaker unit SP (1, n) is output to the region C as shown in FIG.

また、制御部130は、マイクロホン30Aの位置を特定すると、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)から出力される音が図12に示したように、スピーカアレイ20Bから見てマイクロホン30Aの右側の領域Dに出力されるように、遅延部DL(2,1)〜遅延部DL(2,n)の遅延量を制御する。遅延部DL(2,1)〜遅延部DL(2,n)の遅延量が制御されると、各遅延部DLにおいては、マイクロホン30Aから出力された音声信号の遅延量が設定された遅延量となり、スピーカユニットSP(2,1)〜スピーカユニットSP(2,n)から出力される音が、図12に示したように領域Dに出力される。   In addition, when the control unit 130 specifies the position of the microphone 30A, the sound output from the speaker units SP (2, 1) to SP (2, n) is output from the speaker array 20B as shown in FIG. The delay amount of the delay unit DL (2,1) to the delay unit DL (2, n) is controlled so as to be output to the region D on the right side of the microphone 30A. When the delay amounts of the delay units DL (2, 1) to DL (2, n) are controlled, the delay amounts in which the delay amount of the audio signal output from the microphone 30A is set in each delay unit DL. Thus, the sound output from the speaker unit SP (2, 1) to the speaker unit SP (2, n) is output to the region D as shown in FIG.

これにより、マイクロホン30Aがある位置には、スピーカアレイ20Bから出力される音が到達しなくなる。スピーカアレイ20Bから出力された音がマイクロホン30Aに入力されないと閉ループは形成されないため、ハウリングの発生を抑えることができる。また、本実施形態によれば、スピーカアレイ20Bから出力される音の領域がマイクロホン30Aの位置に応じて変化するため、マイクロホン30Aの位置が変化してもハウリングの発生を抑えることができる。なお、本実施形態においてはマイクロホン30Aの位置を検知するようにしているが、マイクロホン30Aの位置を予め制御部130に記憶させておき、記憶させたマイクロホン30Aの位置を避けるように、スピーカアレイ20Bから音声を出力するようにしてもよい。   Thereby, the sound output from the speaker array 20B does not reach the position where the microphone 30A is located. Since the closed loop is not formed unless the sound output from the speaker array 20B is input to the microphone 30A, the occurrence of howling can be suppressed. Further, according to the present embodiment, since the region of the sound output from the speaker array 20B changes according to the position of the microphone 30A, occurrence of howling can be suppressed even if the position of the microphone 30A changes. In the present embodiment, the position of the microphone 30A is detected, but the position of the microphone 30A is stored in the control unit 130 in advance, and the speaker array 20B is avoided so as to avoid the stored position of the microphone 30A. You may make it output a sound from.

[第4実施形態]
次に本発明の第4実施形態について説明する。本実施形態においては信号処理装置の構成が第2実施形態と異なり、他の部分の構成は第2実施形態と同じになっている。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described. In the present embodiment, the configuration of the signal processing apparatus is different from that of the second embodiment, and the configuration of the other parts is the same as that of the second embodiment.

図13は、本実施形態に係わる信号処理装置10Cの具体的なハードウェア構成を示したブロック図である。信号処理装置10Cは、分配器100とキャンセル音生成部120を具備しておらず、代わりにハウリング検出部110Aを具備している。このハウリング検出部110Aは、第1実施形態に係わるハウリング検出部110と同様に、スピーカシステム1においてハウリングを生じさせる音の周波数帯域f1を検出し、この周波数帯域f1に属する音声信号を抽出して遅延部DL1〜遅延部DLnへ出力する。またハウリング検出部110Aは、周波数帯域f1以外の周波数帯域に属する音声信号を抽出してアンプ部AMP(1,1)〜アンプ部AMP(1,n)へ出力する。   FIG. 13 is a block diagram showing a specific hardware configuration of the signal processing apparatus 10C according to the present embodiment. The signal processing device 10C does not include the distributor 100 and the cancellation sound generation unit 120, but includes a howling detection unit 110A instead. Similar to the howling detection unit 110 according to the first embodiment, the howling detection unit 110A detects the frequency band f1 of sound that causes howling in the speaker system 1, and extracts the audio signal belonging to the frequency band f1. Output to delay unit DL1 to delay unit DLn. The howling detection unit 110A extracts an audio signal belonging to a frequency band other than the frequency band f1 and outputs the audio signal to the amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n).

[第4実施形態の動作]
次に本実施形態の動作について説明する。まず制御部130は、音波の出力を指示する指示信号S1を音波出力部32に出力し、指示信号S1を出力してからセンサSE1〜センサSE3が出力した信号を検知するまでの時間を計時することにより、第2実施形態と同様にマイクロホン30Aの位置を得る。
[Operation of Fourth Embodiment]
Next, the operation of this embodiment will be described. First, the control unit 130 outputs the instruction signal S1 instructing the output of the sound wave to the sound wave output unit 32, and measures the time from when the instruction signal S1 is output until the signals output from the sensors SE1 to SE3 are detected. Thus, the position of the microphone 30A is obtained as in the second embodiment.

制御部130は、マイクロホン30Aの位置を特定すると、スピーカアレイ20Aにおいて2行目のスピーカラインを形成するスピーカユニットSPのうち、正面から見て中央部分より左側に位置するスピーカユニットSP(2,1)〜スピーカユニットSP(2,m)(m<n)から出力される音が、図14(a)に示したように、スピーカアレイ20Aから見てマイクロホン30Aの右側の領域Eに出力されるように、遅延部DL1〜遅延部DLmの遅延量を制御する。遅延部DL1〜遅延部DLmの遅延量が制御されると、各遅延部DLにおいては、ハウリング検出部110Aから出力された周波数帯域f1に属する音声信号の遅延量が設定された遅延量となり、スピーカユニットSP(2,1)〜スピーカユニットSP(2,m)から出力される音が、図14(a)に示したように領域Eに出力される。   When the position of the microphone 30A is specified, the control unit 130 among the speaker units SP that form the speaker line of the second row in the speaker array 20A, the speaker unit SP (2, 1) located on the left side of the center portion when viewed from the front. ) To sound output from the speaker unit SP (2, m) (m <n) is output to the region E on the right side of the microphone 30A when viewed from the speaker array 20A, as shown in FIG. As described above, the delay amounts of the delay units DL1 to DLm are controlled. When the delay amounts of the delay units DL1 to DLm are controlled, in each delay unit DL, the delay amount of the audio signal belonging to the frequency band f1 output from the howling detection unit 110A becomes the set delay amount, and the speaker The sound output from the unit SP (2, 1) to the speaker unit SP (2, m) is output to the region E as shown in FIG.

また、制御部130は、マイクロホン30Aの位置を特定すると、スピーカアレイ20Aにおいて2行目のスピーカラインを形成するスピーカユニットSPのうち、正面から見て中央部分より左側に位置するスピーカユニットSP(2,m+1)〜スピーカユニットSP(2,n)から出力される音が図14(a)に示したように、スピーカアレイ20Aから見てマイクロホン30Aの左側の領域Fに出力されるように、遅延部DLm+1〜遅延部DLnの遅延量を制御する。遅延部DLm+1〜遅延部DLmの遅延量が制御されると、各遅延部DLにおいては、ハウリング検出部110Aから出力された周波数帯域f1に属する音声信号の遅延量が設定された遅延量となり、スピーカユニットSP(2,1)〜スピーカユニットSP(2,m)から出力される音が、図14(a)に示したように領域Fに出力される。   Further, when the position of the microphone 30A is specified, the control unit 130 among the speaker units SP that form the second speaker line in the speaker array 20A, the speaker unit SP (2 , M + 1) to the speaker unit SP (2, n) as shown in FIG. 14A, the delay is such that the sound is output to the region F on the left side of the microphone 30A when viewed from the speaker array 20A. The delay amount of the part DLm + 1 to the delay part DLn is controlled. When the delay amount of the delay unit DLm + 1 to the delay unit DLm is controlled, in each delay unit DL, the delay amount of the audio signal belonging to the frequency band f1 output from the howling detection unit 110A becomes the set delay amount, and the speaker The sound output from the unit SP (2, 1) to the speaker unit SP (2, m) is output to the region F as shown in FIG.

一方、ハウリング検出部110Aから出力された音声信号であって、周波数帯域f1以外の周波数帯域に属する音声信号は、アンプ部AMP(1,1)〜アンプ部AMP(1,n)に入力される。アンプ部AMP(1,1)〜アンプ部AMP(1,n)に入力された音声信号は、各アンプ部AMPで増幅された後、各アンプ部AMPに接続されたスピーカユニットSP(1,1)〜スピーカユニットSP(1,n)に出力される。スピーカユニットSP(1,1)〜スピーカユニットSP(1,n)に音声信号が入力されると、入力された音声信号に対応した音声がスピーカユニットSP(1,1)〜スピーカユニットSP(1,n)から出力される。これにより、マイクロホン30Aで収音された音声のうち、周波数帯域f1以外の周波数帯域に属する音が、図14(b)に示したように領域Gに出力される。   On the other hand, an audio signal output from the howling detection unit 110A and belonging to a frequency band other than the frequency band f1 is input to the amplifier unit AMP (1, 1) to the amplifier unit AMP (1, n). . The audio signals input to the amplifier units AMP (1, 1) to AMP (1, n) are amplified by the amplifier units AMP and then connected to the speaker units SP (1, 1). To speaker unit SP (1, n). When an audio signal is input to speaker unit SP (1, 1) to speaker unit SP (1, n), audio corresponding to the input audio signal is output from speaker unit SP (1, 1) to speaker unit SP (1. , N). As a result, of the sound collected by the microphone 30A, the sound belonging to the frequency band other than the frequency band f1 is output to the region G as shown in FIG.

本実施形態によれば、ハウリングを発生させる周波数帯域f1に属する音がマイクロホン30Aの位置には出力されないので、ハウリングの発生を抑えることができる。また、本実施形態においては、スピーカアレイ20Aから出力される音をキャンセルする音が出力されないので、スピーカアレイ20Aのサービスエリア内においては、聴者が音を聞けなくなるエリアが発生するのを回避することができる。なお、本実施形態においてはマイクロホン30Aの位置を検知するようにしているが、マイクロホン30Aの位置を予め制御部130に記憶させておき、ハウリングを発生させる周波数帯域に属する音声がマイクロホン30Aの位置に出力されないようにしてもよい。   According to the present embodiment, since the sound belonging to the frequency band f1 that generates howling is not output to the position of the microphone 30A, it is possible to suppress howling. Further, in the present embodiment, since the sound for canceling the sound output from the speaker array 20A is not output, it is avoided that an area in which the listener cannot hear the sound is generated in the service area of the speaker array 20A. Can do. In the present embodiment, the position of the microphone 30A is detected. However, the position of the microphone 30A is stored in the control unit 130 in advance, and the sound belonging to the frequency band that generates howling is located at the position of the microphone 30A. It may not be output.

[変形例]
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。例えば、上述の実施形態を以下のように変形して本発明を実施してもよい。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. For example, the present invention may be implemented by modifying the above-described embodiment as follows.

上述した実施形態においては、ハウリングをキャンセルする音声のビームをスピーカアレイ20から複数出力し、複数ビームを重ね合わせることにより、ハウリングを発生させている周波数帯域f1に属する音声をキャンセルするようにしてもよい。また、図15に示したように、ハウリングをキャンセルする音声のビームを2つ出力してハウリングをキャンセルする場合、スピーカアレイに向かって右半分側のスピーカユニットから出力される第1ビームB1の音声のレベルおよびスピーカアレイに向かって左半分側のスピーカユニットから出力される第2ビームB2の音声のレベルの各々を、サービスエリアに出力される音(マイクロホン30で収音された音に対応した音)のレベルの半分のレベルとなるようにしてもよい。   In the above-described embodiment, a plurality of sound beams for canceling howling are output from the speaker array 20 and the plurality of beams are superimposed to cancel the sound belonging to the frequency band f1 in which howling is generated. Good. Further, as shown in FIG. 15, in the case of canceling howling by outputting two sound beams for canceling howling, the sound of the first beam B1 output from the speaker unit on the right half side toward the speaker array. And the sound level of the second beam B2 output from the left half speaker unit toward the speaker array, are output to the service area (sound corresponding to the sound collected by the microphone 30). ) May be half of the level.

本発明は、図16に示したような双方向の通信会議システムにも適用可能である。図16に示したように、部屋Aには、マイクロホン30−1と、スピーカアレイ20−1と、信号処理装置10−1と、通信装置40−1が設置されており、部屋Bには、マイクロホン30−2と、スピーカアレイ20−2と、信号処理装置10−2と、通信装置40−2が設置されている。図16において、通信装置40−1は、マイクロホン30−1から出力された音声信号を信号処理装置10−2へ送信する装置であり、通信装置40−2は、マイクロホン30−2から出力された音声信号を信号処理装置10−1へ送信する装置である。   The present invention is also applicable to a bidirectional communication conference system as shown in FIG. As shown in FIG. 16, the microphone 30-1, the speaker array 20-1, the signal processing device 10-1, and the communication device 40-1 are installed in the room A, and the room B includes A microphone 30-2, a speaker array 20-2, a signal processing device 10-2, and a communication device 40-2 are installed. In FIG. 16, the communication device 40-1 is a device that transmits the audio signal output from the microphone 30-1 to the signal processing device 10-2, and the communication device 40-2 is output from the microphone 30-2. It is a device that transmits an audio signal to the signal processing device 10-1.

信号処理装置10−2は、マイクロホン30−1で収音された音声がスピーカアレイ20−2から出力されるようにスピーカアレイ20−2を制御する。この際、信号処理装置10−2は、第1実施形態と同様にして音声を出力してもよいし、マイクロホン30−2の位置を検出し、第2〜4実施形態と同様にして音声を出力するようにしてもよい。また、信号処理装置10−1は、マイクロホン30−2で収音された音声がスピーカアレイ20−1から出力されるようにスピーカアレイ20−1を制御する。信号処理装置10−1においても、第1実施形態と同様にして音声を出力してもよいし、マイクロホン30−1の位置を検出し、第2〜4実施形態と同様にして音声を出力するようにしてもよい。   The signal processing device 10-2 controls the speaker array 20-2 so that the sound collected by the microphone 30-1 is output from the speaker array 20-2. At this time, the signal processing apparatus 10-2 may output sound in the same manner as in the first embodiment, or detects the position of the microphone 30-2 and outputs sound in the same manner as in the second to fourth embodiments. You may make it output. Further, the signal processing device 10-1 controls the speaker array 20-1 so that the sound collected by the microphone 30-2 is output from the speaker array 20-1. The signal processing apparatus 10-1 may output sound in the same manner as in the first embodiment, or may detect the position of the microphone 30-1 and output sound in the same manner as in the second to fourth embodiments. You may do it.

上述した実施形態においては、スピーカアレイを構成するスピーカラインの行を1行とし、スピーカラインの中央より左側に位置するスピーカユニットSPからマイクロホン30で収音された音声を出力し、スピーカラインの中央より右側に位置するスピーカユニットSPからハウリングをキャンセルする音声を出力するようにしてもよい。   In the above-described embodiment, one speaker line is included in the speaker array, and the sound collected by the microphone 30 is output from the speaker unit SP located on the left side of the center of the speaker line. You may make it output the audio | voice which cancels howling from the speaker unit SP located in the more right side.

上述した実施形態においては、スピーカアレイの1行目のスピーカラインと2行目のスピーカラインとで異なる音声を出力しているが、図11に示したようにスピーカアレイのスピーカラインを1行とし、1行のスピーカラインでマイクロホンに入力された音声の音響ビームと、周波数帯域f1に属する音声の位相を反転させた音声の音響ビームとを出力するようにしてもよい。この場合、図17に示したように、分配器100から出力されて遅延部DL1A〜DLnAで遅延された音声信号と、キャンセル音生成部120から出力されて遅延部DL1〜DLnで遅延された反転信号とを加算部ADD1〜ADDnで加算し、この加算部で加算された信号を増幅部AM1〜AMnで増幅して、各スピーカユニットSPに供給するようにしてもよい。
また、上述した実施形態においては、スピーカアレイから出力される音響ビームの数は、2または2以上であってもよい。
また、上述した実施形態においては、スピーカアレイから出力される音響ビームの方向だけではなく、各アンプ部を制御して各スピーカユニットへ出力する信号のレベルの制御も行い、音響ビームの音のレベルも制御するようにしてもよい。
In the above-described embodiment, different sounds are output between the first speaker line and the second speaker line of the speaker array. However, as shown in FIG. A sound beam of sound input to the microphone through one line of speaker lines and a sound beam of sound obtained by inverting the phase of sound belonging to the frequency band f1 may be output. In this case, as illustrated in FIG. 17, the audio signal output from the distributor 100 and delayed by the delay units DL1A to DLnA and the inversion output from the cancel sound generation unit 120 and delayed by the delay units DL1 to DLn The signals may be added by the adders ADD1 to ADDn, and the signals added by the adders may be amplified by the amplifiers AM1 to AMn and supplied to each speaker unit SP.
In the above-described embodiment, the number of acoustic beams output from the speaker array may be two or two or more.
In the above-described embodiment, not only the direction of the acoustic beam output from the speaker array, but also the level of the signal output to each speaker unit by controlling each amplifier unit is controlled. May also be controlled.

本発明の実施形態に係るスピーカシステムの全体構成を示した図である。It is the figure which showed the whole structure of the speaker system which concerns on embodiment of this invention. 第1実施形態に係わるスピーカアレイ20の正面図である。It is a front view of the speaker array 20 concerning 1st Embodiment. 第1実施形態に係わる信号処理装置10のハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of the signal processing apparatus 10 concerning 1st Embodiment. 第1実施形態の動作を説明するための図である。It is a figure for demonstrating operation | movement of 1st Embodiment. 第1実施形態の動作を説明するための図である。It is a figure for demonstrating operation | movement of 1st Embodiment. 第2実施形態に係わるスピーカアレイ20Aの正面図である。It is a front view of speaker array 20A concerning a 2nd embodiment. 第2実施形態に係わるマイクロホン30Aのハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of the microphone 30A concerning 2nd Embodiment. 第2実施形態に係わる信号処理装置10Aのハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of 10 A of signal processing apparatuses concerning 2nd Embodiment. 第2実施形態の動作を説明するための図である。It is a figure for demonstrating operation | movement of 2nd Embodiment. 第3実施形態に係わる信号処理装置10Bのハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of the signal processing apparatus 10B concerning 3rd Embodiment. 第3実施形態に係わるスピーカアレイ20Bの正面図である。It is a front view of speaker array 20B concerning a 3rd embodiment. 第3実施形態の動作を説明するための図である。It is a figure for demonstrating operation | movement of 3rd Embodiment. 第4実施形態に係わる信号処理装置10Cのハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of 10 C of signal processing apparatuses concerning 4th Embodiment. 第4実施形態の動作を説明するための図である。It is a figure for demonstrating operation | movement of 4th Embodiment. 本発明の変形例の動作を説明するための図である。It is a figure for demonstrating operation | movement of the modification of this invention. 本発明の変形例を説明するための図である。It is a figure for demonstrating the modification of this invention. 本発明の変形例に係わる信号処理装置10Dのハードウェア構成を示したブロック図である。It is the block diagram which showed the hardware constitutions of signal processing apparatus 10D concerning the modification of this invention.

符号の説明Explanation of symbols

10,10A,10B,10C・・・信号処理装置、20,20A,20B・・・スピーカアレイ、30,30A・・・マイクロホン、31・・・マイクユニット、32・・・音波出力部、100・・・分配器、110・・・ハウリング検出部、120・・・キャンセル音生成部、130・・・制御部、SP・・・スピーカユニット、DL・・・遅延部、AMP・・・アンプ部 10, 10A, 10B, 10C ... signal processing device, 20, 20A, 20B ... speaker array, 30, 30A ... microphone, 31 ... microphone unit, 32 ... sound wave output unit, 100 ..Distributor, 110 ... howling detection unit, 120 ... cancellation sound generation unit, 130 ... control unit, SP ... speaker unit, DL ... delay unit, AMP ... amplifier unit

Claims (6)

少なくとも2以上のグループにグループ分けされた複数のスピーカユニットを備えるスピーカアレイへ音声信号を出力する信号処理装置であって、
音声を表す音声信号が入力される信号入力手段と、
前記信号入力手段に入力された音声信号を、前記グループの第1グループに属するスピーカユニットへ出力する信号出力手段と、
前記信号入力手段に入力された音声信号の周波数分布を解析する解析手段と、
前記解析手段により求められた周波数分布において、所定のレベル以上となっている周波数帯域の音声信号を抽出する抽出手段と、
前記抽出手段で抽出された音声信号の位相を反転させた位相反転信号を生成する反転信号生成手段と、
前記反転信号生成手段で生成された反転信号を、前記グループの第2グループに属するスピーカユニットの数に対応させて分岐させる分岐手段と、
前記分岐手段で分岐された反転信号を加工して前記第2グループに属するスピーカユニット群へ出力する手段であって、前記第1グループに属するスピーカユニットへ出力された音声信号が表す音声と前記反転信号が表す音声とが、前記スピーカアレイから出力される音が拡散する領域内の特定位置において重なるように前記反転信号を加工して出力する信号加工手段と
を備える信号処理装置。
A signal processing apparatus that outputs audio signals to a speaker array including a plurality of speaker units grouped into at least two groups,
A signal input means for inputting a voice signal representing voice;
A signal output means for outputting an audio signal input to the signal input means to a speaker unit belonging to the first group of the group;
Analyzing means for analyzing a frequency distribution of the audio signal input to the signal input means;
In the frequency distribution obtained by the analyzing means, an extracting means for extracting an audio signal in a frequency band that is a predetermined level or higher;
An inverted signal generating means for generating a phase inverted signal obtained by inverting the phase of the audio signal extracted by the extracting means;
Branching means for branching the inverted signal generated by the inverted signal generating means in correspondence with the number of speaker units belonging to the second group of the group;
The means for processing the inverted signal branched by the branching means and outputting the processed inverted signal to the speaker unit group belonging to the second group, the voice represented by the audio signal output to the speaker unit belonging to the first group and the inverted signal A signal processing device comprising: signal processing means for processing and outputting the inverted signal so that the sound represented by the signal overlaps at a specific position in a region where the sound output from the speaker array is diffused.
前記信号入力手段に音声信号を入力するマイクロホンの位置を検出する位置検出手段を有し、
前記信号加工手段は、前記位置検出手段で検出された位置を前記特定位置とすること
を特徴とする請求項1に記載の信号処理装置。
A position detecting means for detecting a position of a microphone for inputting an audio signal to the signal input means;
The signal processing apparatus according to claim 1, wherein the signal processing unit sets the position detected by the position detection unit as the specific position.
前記信号加工手段は、前記反転信号が表す音声の音響ビームが前記第2グループに属するスピーカユニット群から複数出力されるように前記分岐手段により分岐された各音声信号を加工して出力すること
を特徴とする請求項1または請求項2に記載の信号処理装置。
The signal processing means processes and outputs each of the sound signals branched by the branching means so that a plurality of sound beams of the sound represented by the inverted signal are output from the speaker unit group belonging to the second group. The signal processing apparatus according to claim 1, wherein the signal processing apparatus is characterized in that:
前記信号加工手段は、前記複数の各音響ビームの音声のレベルを加算すると、前記第1グループに属するスピーカユニットから出力された音声のレベルと同じとなるように、前記分岐手段により分岐された各音声信号を加工して出力すること
を特徴とする請求項3に記載の信号処理装置。
The signal processing means adds each sound level of each of the plurality of acoustic beams so that the signal level is the same as the sound level output from the speaker unit belonging to the first group. The signal processing apparatus according to claim 3, wherein the audio signal is processed and output.
少なくとも2以上のグループにグループ分けされた複数のスピーカユニットを備えるスピーカアレイへ音声信号を出力する信号処理装置であって、
音声を表す音声信号が入力される信号入力手段と、
前記信号入力手段に入力された音声信号の周波数分布を解析する解析手段と、
前記解析手段により求められた周波数分布において、所定のレベル未満となっている周波数帯域の音声信号を抽出する第1抽出手段と、
前記解析手段により求められた周波数分布において、所定のレベル以上となっている周波数帯域の音声信号を抽出する第2抽出手段と、
第1抽出手段により抽出された音声信号を、前記グループの第1グループに属するスピーカユニットへ出力する信号出力手段と、
前記第2抽出手段により抽出された音声信号を、前記グループの第2グループに属するスピーカユニットの数に対応させて分岐させる分岐手段と、
前記分岐手段により分岐された各音声信号を加工して前記第2グループに属するスピーカユニットへ出力する手段であって、該第2グループに属するスピーカユニット群から出力される音響ビームの指向方向が特定方向となるように、前記分岐手段により分岐された各音声信号を加工して出力する信号加工手段と
を備える信号処理装置。
A signal processing apparatus that outputs audio signals to a speaker array including a plurality of speaker units grouped into at least two groups,
A signal input means for inputting a voice signal representing voice;
Analyzing means for analyzing a frequency distribution of the audio signal input to the signal input means;
First extraction means for extracting an audio signal in a frequency band that is less than a predetermined level in the frequency distribution obtained by the analysis means;
Second extraction means for extracting an audio signal in a frequency band that is equal to or higher than a predetermined level in the frequency distribution obtained by the analysis means;
A signal output means for outputting the audio signal extracted by the first extraction means to a speaker unit belonging to the first group of the group;
Branching means for branching the audio signal extracted by the second extracting means in correspondence with the number of speaker units belonging to the second group of the group;
A means for processing each sound signal branched by the branching means and outputting the processed sound signal to the speaker unit belonging to the second group, wherein the directivity direction of the acoustic beam output from the speaker unit group belonging to the second group is specified. Signal processing means for processing and outputting each audio signal branched by the branching means so as to be in the direction.
前記信号入力手段に音声信号を入力するマイクロホンの位置を検出する位置検出手段を有し、
前記信号加工手段は、前記第2グループに属するスピーカユニット群から出力される音響ビームの指向方向が前記位置検出手段で検出された位置の方向とならないように、前記分岐手段により分岐された各音声信号を加工して出力すること
を特徴とする請求項5に記載の信号処理装置。
A position detecting means for detecting a position of a microphone for inputting an audio signal to the signal input means;
The signal processing unit is configured to output each sound branched by the branching unit so that the directivity direction of the acoustic beam output from the speaker unit group belonging to the second group is not the direction of the position detected by the position detecting unit. The signal processing apparatus according to claim 5, wherein the signal is processed and output.
JP2006065463A 2006-03-10 2006-03-10 Signal processing device Expired - Fee Related JP4285492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006065463A JP4285492B2 (en) 2006-03-10 2006-03-10 Signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006065463A JP4285492B2 (en) 2006-03-10 2006-03-10 Signal processing device

Publications (2)

Publication Number Publication Date
JP2007243772A true JP2007243772A (en) 2007-09-20
JP4285492B2 JP4285492B2 (en) 2009-06-24

Family

ID=38588823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006065463A Expired - Fee Related JP4285492B2 (en) 2006-03-10 2006-03-10 Signal processing device

Country Status (1)

Country Link
JP (1) JP4285492B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009066906A2 (en) * 2007-11-23 2009-05-28 Won Sup Chung Apparatus for sound having multiple stereo imaging
WO2009096656A1 (en) * 2008-01-29 2009-08-06 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
WO2009096657A1 (en) * 2008-01-29 2009-08-06 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
KR101071959B1 (en) 2009-02-13 2011-10-10 한국과학기술원 Acoustic array system and control method of this system
JP2015220655A (en) * 2014-05-20 2015-12-07 三菱電機インフォメーションネットワーク株式会社 Inter-long distance point bidirectional communication system and inter-long distance point bidirectional communication method
CN108235187A (en) * 2016-12-13 2018-06-29 雅马哈株式会社 Whistle inhibits equipment and whistle suppressing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009066906A2 (en) * 2007-11-23 2009-05-28 Won Sup Chung Apparatus for sound having multiple stereo imaging
WO2009066906A3 (en) * 2007-11-23 2009-07-02 Won Sup Chung Apparatus for sound having multiple stereo imaging
US8559644B2 (en) 2007-11-23 2013-10-15 Won Sup Chung Apparatus for sound having multiples stereo imaging
WO2009096656A1 (en) * 2008-01-29 2009-08-06 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
WO2009096657A1 (en) * 2008-01-29 2009-08-06 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
KR100930834B1 (en) * 2008-01-29 2009-12-10 한국과학기술원 Sound playback device
US8369536B2 (en) 2008-01-29 2013-02-05 Korea Advanced Institute Of Science And Technology Sound system, sound reproducing apparatus, sound reproducing method, monitor with speakers, mobile phone with speakers
KR101071959B1 (en) 2009-02-13 2011-10-10 한국과학기술원 Acoustic array system and control method of this system
JP2015220655A (en) * 2014-05-20 2015-12-07 三菱電機インフォメーションネットワーク株式会社 Inter-long distance point bidirectional communication system and inter-long distance point bidirectional communication method
CN108235187A (en) * 2016-12-13 2018-06-29 雅马哈株式会社 Whistle inhibits equipment and whistle suppressing method
CN108235187B (en) * 2016-12-13 2020-06-26 雅马哈株式会社 Howling suppression apparatus and howling suppression method

Also Published As

Publication number Publication date
JP4285492B2 (en) 2009-06-24

Similar Documents

Publication Publication Date Title
JP5401760B2 (en) Headphone device, audio reproduction system, and audio reproduction method
JP4984683B2 (en) Sound emission and collection device
JP4285492B2 (en) Signal processing device
JP5050616B2 (en) Sound emission and collection device
KR101761312B1 (en) Directonal sound source filtering apparatus using microphone array and controlling method thereof
JP5222897B2 (en) System for active noise control using adaptive speaker selection
JP4887968B2 (en) Audio conferencing equipment
US20080304677A1 (en) System and method for noise cancellation with motion tracking capability
US20110038229A1 (en) Audio source localization system and method
BRPI0500614A (en) System and method for beam formation using a microphone array
ATE473603T1 (en) ACOUSTIC LOCALIZATION OF A SPEAKER
JP5644382B2 (en) Audio processing device
MY157196A (en) Methods and systems for active sound attenuation in an air handling unit
WO2011027005A3 (en) Method and system for speech enhancement in a room
Tamai et al. Three ring microphone array for 3d sound localization and separation for mobile robot audition
TW200644699A (en) Microphone system
KR101561843B1 (en) Audio system for echo cancelation matched sound pickup area
GB2598870A8 (en) Flexible voice capture front-end for headsets
JP4372081B2 (en) Acoustic signal reproduction device
WO2007138985A1 (en) Discharging/collecting voice device and control method for discharging/collecting voice device
KR101721621B1 (en) Audio amplifying apparatus united microphone and speaker
JP5728378B2 (en) Noise reduction device
CN102316395A (en) Method and device for judging and eliminating howlround
JP2017097015A (en) Active silencing system, active silencing method, and active silencing program
JP2007078545A (en) Object detection system and voice conference system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees