JPS5983496A - Micophone device - Google Patents

Micophone device

Info

Publication number
JPS5983496A
JPS5983496A JP57193520A JP19352082A JPS5983496A JP S5983496 A JPS5983496 A JP S5983496A JP 57193520 A JP57193520 A JP 57193520A JP 19352082 A JP19352082 A JP 19352082A JP S5983496 A JPS5983496 A JP S5983496A
Authority
JP
Japan
Prior art keywords
microphone
delay
microphones
sound source
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP57193520A
Other languages
Japanese (ja)
Other versions
JPS6364120B2 (en
Inventor
Yasuaki Awanaka
淡中 泰明
Koji Kito
浩二 木藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP57193520A priority Critical patent/JPS5983496A/en
Publication of JPS5983496A publication Critical patent/JPS5983496A/en
Publication of JPS6364120B2 publication Critical patent/JPS6364120B2/ja
Granted legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PURPOSE:To record sequentially the sound of different talkers, by retrieving the location of a sound source through sweeping, and directing the main axis of the directivity of the entire microphone to the sound source. CONSTITUTION:A delay circuit 8 sweeps the main axis of the directivity pattern, and the delay time of this circuit 8 depends on a frequency of a rectangular wave signal applied via an I/O port 16 by a command signal from a microcomputer 15 set in advance to retrieve the sound source. An analog signal whose amplitude is changed depending on the angle between the sound source and the main axis of the directivity in response to the sweep of the main axis of the directivity pattern is outputted from a mixing circuit 10. The converted digital signal is inputted to the microcomputer 15 via an I/O port 18, and the location of the sound source in the straightly arranged direction involving the microphone 1 is searched. The main axis is directed to the sound source by a delay circuit 9 based on the positional information.

Description

【発明の詳細な説明】 (利用分!l!r) 本発明は、マイクロホン装置に関し、1時にi源位置を
自動的に探索して、目標とする音を収音するマイクロホ
ン装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Usage!l!r) The present invention relates to a microphone device, and more particularly, to a microphone device that automatically searches for an i-source position at one o'clock and picks up a target sound.

(従来技術) 従来から、可聴音を収音するには、言うまでもなく、マ
イクロホンが用いられている。比較的遠方のれ5をとら
えるためには、単−指向性の高感度マイクロホン、ある
いはガンタイプの狭指向性マイクロホンが使用される。
(Prior Art) Needless to say, microphones have conventionally been used to collect audible sounds. In order to capture the relatively distant deviation 5, a uni-directional high-sensitivity microphone or a gun-type narrow-directional microphone is used.

また、これとは別に、同じく比較的遠方の音をとらえる
方法としては、集音用の凹面反射体と、その焦点に設置
された単一指向性マイクロホンとで構成された装装置が
用いられている。
Separately, another method for capturing sounds from relatively far away is to use a device consisting of a concave reflector for collecting sound and a unidirectional microphone installed at its focal point. There is.

さらにまた、以上とは別に、目標とする廿以外の音を・
極力排除するために、マイク(マイクロホン)配夕11
を用いる考え力がある。これは、複数個のマイクロホン
を、一定間隔で直線状に あるいは2次元面上に配列す
ることに、よって、鋭い指向性を得、これにより騒音等
を極力排除するものである。
Furthermore, apart from the above, sounds other than the target
In order to eliminate as much as possible, microphone (microphone)
Has the ability to think using ideas. This method obtains sharp directivity by arranging multiple microphones at regular intervals in a straight line or on a two-dimensional plane, thereby eliminating noise as much as possible.

この場合、原理的には、マイクロボンの数を増やすこと
によって、指向性の鋭さ、あるいは指向性利得が増大す
ることになる。したがって、前記マイク配列を用いる考
え方によれば、目標音と他の騒音等とを区別して、収!
(例えば録音)が出来ることになる。
In this case, in principle, increasing the number of microbons increases the sharpness of the directivity or the directivity gain. Therefore, according to the idea of using the microphone array, the target sound and other noises can be distinguished and contained.
(for example, recording).

ところが一方、マイク配列を用いた従来のマイクロホン
装置では、その指向性を鋭くすればする程、目標とする
音を収音することが困難になるという欠点があった。
However, conventional microphone devices using a microphone array have a drawback in that the sharper the directivity, the more difficult it becomes to pick up a target sound.

これは、従来のマイク配列を用いたマイクロホン装置が
、自動的に音源を探索、追跡する機能がなく、したがっ
て、特に音源が移動しているような場合には、目標とす
る音源を正確に探索、追跡することができないからであ
る。  、そこで、従来から、マイク配列を用いたマイ
クロホン装置に全体としては鋭い指向性を持ちながら、
しかも自動的に音源を探索、追跡することが出来るマイ
クロホン装置が望まれていた。
This is because microphone devices using conventional microphone arrays do not have the ability to automatically search and track the sound source, and therefore cannot accurately search for the target sound source, especially when the sound source is moving. , because it cannot be tracked. Therefore, conventionally, microphone devices using microphone arrays have a sharp directivity as a whole, but
Moreover, a microphone device that can automatically search for and track a sound source has been desired.

(目  的) 本発明は、上記した要望に応えるものであって、本発明
の目的は、音源を自動的に探索し、かつ追跡することを
可能とするマイク配列を用いた狭指向性のマイクロホン
装置を提供するにある。
(Objective) The present invention is intended to meet the above-mentioned needs, and an object of the present invention is to provide a narrow-directional microphone using a microphone array that can automatically search and track a sound source. We are in the process of providing equipment.

(概 要) 前記目的を達成するために、本発明では、(1)予定の
間隔でマイクロホン配列され、かつその中の予定のマイ
クロホンで交差する2つの直線配列を形成するようにし
た複数個のマイクロホンと、 (2)前記2つの直線配列を形成する各マイクロホンの
後段に設けられ、それに入力される遅延時間設定信号に
応じて該マイクロポンの出力をそれぞれ予定時間遅延さ
せる複数個の第1の遅延回路と、 (3)  前記各直線配列を形成するマイクロホンで得
られる指向性パターンの主軸をAllll練直線配列方
向期的に掃査(掃引またはtL査)できるように前記第
1の遅延回路に所定の遅延時間設定信号を供給する手段
と、 (4)  前記第1の遅延回路の各出力を混合する第1
の混合回路と、 (5)  前記複数個のマイクロボンの後段に設けられ
、それに入力される遅延時間設定信号に応じて前記複数
個のマイクロホンの出力をそれぞれ予定時間遅延させる
複数個の第2の遅延回路と、 (6)前記第1の混合回路の出力を入力とし、音源位置
を検出するとともに、前記憶紋個のマイクロホンに到達
する前記音源からの「波が時間軸上で一致するように前
記第2の遅延回路のそれぞれに所定の遅延時間設定信号
を供給する手段と、 (7)前記第2の遅延回路の各出力を入力とし、該出力
を合成した信号を出力する第2の混合回路と、 を設けることとした。
(Summary) In order to achieve the above object, the present invention provides (1) a plurality of microphones arranged at predetermined intervals and arranged to form two linear arrays that intersect at the predetermined microphones therein; (2) a plurality of first microphones, which are provided after each of the two microphones forming the two linear arrays, and which delay the output of the microphone by a predetermined time according to a delay time setting signal input thereto; a delay circuit; (3) the first delay circuit so as to periodically sweep (sweep or tL scan) the main axis of the directivity pattern obtained by the microphones forming each of the linear arrays in all directions of the linear array; means for supplying a predetermined delay time setting signal; (4) a first means for mixing each output of the first delay circuit;
(5) a plurality of second mixing circuits provided after the plurality of microphones and delaying the outputs of the plurality of microphones by a scheduled time in accordance with a delay time setting signal input thereto; a delay circuit, (6) which uses the output of the first mixing circuit as an input, detects the sound source position, and also detects the sound source position so that the waves from the sound source that reach the pre-memorized microphones coincide on the time axis. means for supplying a predetermined delay time setting signal to each of the second delay circuits; (7) a second mixer that receives each output of the second delay circuit as an input and outputs a signal obtained by combining the outputs; We decided to provide a circuit and .

また、本発明では、前記目的を達成するために、(1)
既知の位itにある複数個のマイクロホンと、(2)前
記被数個のマイクロホンのうち少なくとも3個のマイク
ロホンの後段に設けられ、該マイクロホンの出力信号を
サンプリングおよびホールドするサンプル・ホールド回
路と、(3)前記サンプル・ホールド回路のそれぞれの
後段に設けられ、前記サンプル・ホールド回路の出力を
ディジタル信号に変換する A/D変換回路と、 (4)予定時間に得られた前記ディジタル信号をデータ
として記憶する手段と、 (5)  前記複数個のマイクロホンの後段にそれぞれ
設けられ、それに入力される遅延時間設定信号に応じて
前記複数個のマイクロホンの出力をそれぞれ予定時間遅
延させる複数個の遅延回路と、 (6)前記記憶手段に記憶されているデータをもとにし
て、前記複数個のマイクロホンに到達する音源からの音
波が時間軸上で一致するようにi11把遅延回路のそれ
ぞれに所定の遅延時間設定信号を供給する手段と、 (7)前記遅延回路の各出力を入力とし、該出力を合成
した信号を出力する混合回路と、を設けることとした。
Furthermore, in the present invention, in order to achieve the above object, (1)
a plurality of microphones located at known positions; (2) a sample-and-hold circuit provided after at least three microphones among the plurality of microphones to sample and hold output signals of the microphones; (3) an A/D conversion circuit that is provided after each of the sample and hold circuits and converts the output of the sample and hold circuit into a digital signal; (4) converts the digital signal obtained at the scheduled time into data; (5) a plurality of delay circuits provided after the plurality of microphones, each delaying the output of the plurality of microphones by a scheduled time in accordance with a delay time setting signal input thereto; (6) Based on the data stored in the storage means, a predetermined value is applied to each of the i11 delay circuits so that the sound waves from the sound source reaching the plurality of microphones coincide on the time axis. A means for supplying a delay time setting signal; and (7) a mixing circuit that receives each output of the delay circuit as an input and outputs a signal obtained by combining the outputs.

(実施例) まず、以下に述べる本発明の第1実施例の音源探索の方
法について、図面を用いて説明する。
(Embodiment) First, a sound source search method according to a first embodiment of the present invention described below will be explained using the drawings.

第1図は、直線状に配列(直線配列)されたマイクロホ
ンによって形成される指向性パターンの一例を示す指向
特性図である。
FIG. 1 is a directional characteristic diagram showing an example of a directional pattern formed by linearly arranged (linearly arranged) microphones.

複数個(ここでは5個)のマイクロホンの配列によって
できた直線配列Iを含む平面(ここでは、紙面に相当す
る面)においては、前記複数個のマイクロホンにより重
ね合せられた指向性パターンは、例えば第1図のBのよ
うにシャープである。
On a plane (here, the plane corresponding to the paper surface) including the linear array I formed by arranging a plurality of (five in this case) microphones, the directional pattern superimposed by the plurality of microphones is, for example, It is sharp like B in Figure 1.

一方、前記直線配列工に垂直な面(ここでは紙面に垂直
r(面)では、−個のマイクロボンとほとんど同じ指向
性パターンが得られる。すなわち、この指向性パターン
は、一般に、ブロードである。
On the other hand, in a plane perpendicular to the linear array (r (plane) perpendicular to the plane of paper in this case), a directivity pattern almost the same as - microbons is obtained. In other words, this directivity pattern is generally broad. .

なお、同図においてbは、前記指向性パターンBの主軸
である。
Note that in the figure, b is the main axis of the directional pattern B.

また、一般に、d/λ (dはマイクロボン間隔、λは
音波波長)が1未満になると、指向性パターンのサイド
ローブは小さくなり、はぼ単一指向性となる。
Generally, when d/λ (d is the micro-bon spacing, λ is the wavelength of the sound wave) is less than 1, the side lobes of the directional pattern become small and the pattern becomes almost unidirectional.

次に、前記直線配列Iを形成する各マイクロボンの出力
信号径路K、遅延回路を設け、前記出方信号に対する遅
延時間を、前記各マイクロホンごとに、それぞれ予定の
割合で変化させると、前記直線配列工のイメージは、例
えば第1図に破線で示す直線3,4のようになる。すな
わち、前記直線配列Iのイメージを、直線3,4のよう
に変化させることが出来る。
Next, an output signal path K and a delay circuit are provided for each of the microbons forming the linear array I, and when the delay time for the output signal is varied at a predetermined rate for each microphone, the linear An image of the array process is, for example, straight lines 3 and 4 shown by broken lines in FIG. That is, the image of the linear array I can be changed to look like straight lines 3 and 4.

このような変化は、例えば直線3の場合、遅延時間差O
のマイクロホン(図面左端のマイクロボン)と、遅延時
間差の最大値のマイクロホン(図面右端のマイクロホン
)以外の各マイクロホンとの距離に応じて、前記遅延時
間差の最大値を比例配分することで行ない得る。Ia線
4についても同様である。また、各マイクロホンに、同
−仙の遅延時間を与えると、こんどは、直線配列■のイ
メージは、直線2のようになる。
For example, in the case of straight line 3, such a change causes a delay time difference O
This can be done by proportionally distributing the maximum value of the delay time difference according to the distance between the microphone (the microphone on the left end of the drawing) and each microphone other than the microphone with the maximum delay time difference (the microphone on the right end of the drawing). The same applies to the Ia line 4. Furthermore, if the same delay time is given to each microphone, then the image of the linear array (2) becomes like the straight line 2.

したがって、以上の説明から言えることは、各マイクロ
ホンの出力信号の遅延時間を、連続的にそれぞれ予定の
割合で変化させれば、lu線配夕11■を形成するマイ
クロホンによって得られる指向性パターンは、第1図の
A−+B−+CあるいはC−参〇→Aのように変化する
ということである。すなわち、指向性の主軸を、a−+
 l)→CあるいはC→b→aのように変化させること
が出来、前記直線配列工を含む平面での掃査が可能とな
る。
Therefore, from the above explanation, it can be said that if the delay time of the output signal of each microphone is continuously changed at a predetermined rate, the directivity pattern obtained by the microphones forming the LU wire array 11 , it changes like A-+B-+C or C-3→A in FIG. That is, the main axis of directivity is a−+
It can be changed as follows: l)→C or C→b→a, making it possible to scan a plane including the linear arrangement.

ところで、上記のようなマイクロボンの直線配列■のイ
メージの変化によって、指向性の主軸が、左右それぞれ
最大 60°振れるとすれば、各マイクロホン間(ただ
し、前記マイクロホン間隔dは30σとする)の最大の
遅延時間差は、6.1m 秒となる。
By the way, if the main axis of directivity swings by a maximum of 60 degrees to the left and right due to the change in the image of the linear array of microphones (■) as described above, then the distance between each microphone (provided that the microphone spacing d is 30σ) is The maximum delay time difference is 6.1 m seconds.

ところで、音源S1 が、例えば第1図の■印の位置に
あると、前記掃査によって、指向性の主軸がc K f
、fつだとき、直線配列Iを形成する各マイクロホンの
出力信号の振幅は、最大値となる。
By the way, when the sound source S1 is located, for example, at the position marked ■ in FIG.
, f, the amplitude of the output signal of each microphone forming the linear array I becomes the maximum value.

したがって、各マイクロホンの遅延時間を、この主軸C
が形成できる値に固定しておけば、主として音源S1か
ら発する音波のみを収音し、他の騒音等を排除出来るこ
とになる。
Therefore, the delay time of each microphone is
If the value is fixed to a value that allows formation of the sound source S1, only the sound waves mainly emitted from the sound source S1 can be collected, and other noises etc. can be excluded.

次に、指向性パターンの主軸の掃査の力θぺについて、
第2図を用いてさらに晶、明する。
Next, regarding the sweeping force θpe of the principal axis of the directivity pattern,
The crystals will be further explained using FIG.

なお、同図において、■は、マイクロホンM 1〜M5
によって、例えば室内の天井に形成された直線配列を示
し、Jは、前記直線配列工に直交するようにマイクロホ
ンml 、m2 、M3.m4 +m5によって形成さ
れた1有線間列を示す。また2は、前記直線配列I、J
の交点(ここでは、マイクロホンM3)から下方へ垂直
に延ばした軸の線を示す。
In addition, in the same figure, ■ indicates microphones M1 to M5.
represents a linear array formed, for example, on the ceiling of a room, and J represents microphones ml, m2, M3 . 1 shows a line between wires formed by m4 + m5. 2 is the linear array I, J
The axis line extends vertically downward from the intersection point (here, microphone M3).

上記で説明したように、直線配列されたマイクロホンに
よって得られる指向性パターンは、例えば、まず直線配
列Iを例に考えると、この直線配列Iを當む面(1−Z
而)lcgいては、シャープである。また、このIM線
配列■に垂直な面<I−J[酊、 J−Zt酊)では、
ブロード(扇形パターン)となる。
As explained above, the directivity pattern obtained by a linear array of microphones is, for example, first considering a linear array I as an example, a surface (1-Z
However, the lcg is sharp. Also, in the plane perpendicular to this IM line array ■<I-J [drunk, J-Ztdrunk),
It becomes a broad (fan-shaped pattern).

ところで、11t1記扇形パターンの直線配列I方向の
掃査によって得られる音源位置は、1次元の位置情報で
ある。2次元の音源位置情報を得るためには、前記1次
元の位置情報を得た後、直線配列Jを形成するマイクロ
ホンm 1 + m 2 r M 3 + m 4 r
 m5により、J−2面にシャープな指向性パターンD
を得て、その主軸dを、前記直線配列J方向に掃査する
必要がある。
By the way, the sound source position obtained by scanning the 11t1 fan-shaped pattern in the linear array I direction is one-dimensional positional information. In order to obtain two-dimensional sound source position information, after obtaining the one-dimensional position information, the microphones m 1 + m 2 r M 3 + m 4 r forming a linear array J are
m5 creates a sharp directional pattern D on the J-2 plane.
It is necessary to scan the main axis d in the direction of the linear array J.

すなわち、音源の正確な位置は、上述した2段階の掃査
によってはじめて知ることが出来る。なお、指向性の主
軸の方向をコントロールするのは、第1図の説明から明
らかなように、遅延回路の遅延時間である。
That is, the exact location of the sound source can only be known through the two-stage scanning described above. Note that, as is clear from the explanation of FIG. 1, the direction of the main axis of directivity is controlled by the delay time of the delay circuit.

ところで、この遅延時間という観点から見ると、前記2
次元の音源位置情報は、直線配夕II Iを形成する各
マイクロホンの遅延時間設定と、直線配列Jを形成する
各マイクロホンの遅延時間設定とを、交互に繰り返すこ
とによって、得ることが出来る。
By the way, from the perspective of this delay time, the above 2.
The dimensional sound source position information can be obtained by alternately repeating the delay time setting of each microphone forming the linear array III and the delay time setting of each microphone forming the linear array J.

ここで、上述した音源採索の方法も含め、以下に述べる
本発明の第1実施例の動作原理について、要約的に説明
する。
Here, the operating principle of the first embodiment of the present invention, which will be described below, including the method of sound source searching described above, will be summarized.

(1)  目標とする音源を収音するために、マイクロ
ホン配列を用いる。
(1) Use a microphone array to pick up the target sound source.

(2)個々のマイクロホンの出力信号は、2径路に分け
られ、第1の径路の出力信号にはN延時間が周期的に変
化する遅延を与えて、マイクロホン配列全体から4fる
指向性の主4!llを変化させる。すなわち、上述した
ようf(僅育を行ない音源の位j#を探索する。
(2) The output signal of each microphone is divided into two paths, and the output signal of the first path is given a delay whose N delay time changes periodically to obtain the main directivity of 4f from the entire microphone array. 4! Change ll. That is, as described above, f(subtraction) is performed to search for the position j# of the sound source.

(3)f源の位置が確定したら、それに基づいて第2の
径路の出力信号に所定の遅延を与え、マイクロホン全体
の指向性の主軸が音源の方向を向くようにする。
(3) Once the position of the f source is determined, a predetermined delay is given to the output signal of the second path based on it, so that the main axis of directivity of the entire microphone points in the direction of the sound source.

以下、第3図に本発明のマイクロホン装置の第1実施例
の要部を示し、特に、音源の位置探索について具体的に
説明する。
FIG. 3 shows the main parts of the first embodiment of the microphone device of the present invention, and in particular, the sound source position search will be specifically explained.

第3図において、マイクロホン1から出力された信号は
、マイクアンプ5によって増幅され、例えばBBD素子
からなる第1の遅延回路8により遅延される。この遅延
回路8は、音源の位置探索を目的として、前述したよう
に、指向性パターンの主軸を掃査するためのものである
。ところで、この遅延回路8の遅延時間は、前述したよ
うに、遅延時間差の最大値を、遅延時間差0のマイクロ
ホンとこのマイクロホン1との距離に応じて比例配分さ
れて決定される。すなわち、マイクロホン1を含む直線
配列を形成する各マイクロホンによって得られる指向性
の主軸掃査によって、音源位置を探索できるように、予
め設定されたマイクロコンピュータ(c p )  t
 5からの指令信号により、Ilo  ポート16を介
して供給される矩形波信号(遅延時間設定信号)の周波
数によって定まる。
In FIG. 3, a signal output from a microphone 1 is amplified by a microphone amplifier 5 and delayed by a first delay circuit 8 made of, for example, a BBD element. This delay circuit 8 is for scanning the main axis of the directivity pattern, as described above, for the purpose of searching the position of the sound source. By the way, the delay time of this delay circuit 8 is determined by proportionally distributing the maximum value of the delay time difference according to the distance between the microphone 1 and the microphone with a delay time difference of 0, as described above. That is, the microcomputer (c p ) t is set in advance so that the sound source position can be searched by the directivity principal axis scanning obtained by each microphone forming a linear array including microphone 1.
It is determined by the frequency of the rectangular wave signal (delay time setting signal) supplied via the Ilo port 16 by the command signal from 5.

なお、この矩形波信号は、径路13 を介して前記遅延
回路8に供給されている。
Note that this rectangular wave signal is supplied to the delay circuit 8 via a path 13.

また、マイクロホン1を含む直線配列を形成すル他の各
マイクロホンに対応して設けられている各遅延回路の遅
延時間も同様にして設定されている。また、後述する前
記1αα線列に直交する直線配列を形成する各マイクロ
ホンに対応して設けられている各遅延回路の遅延時間も
同様にして設定される。
Furthermore, the delay times of the respective delay circuits provided corresponding to the other microphones forming the linear array including microphone 1 are similarly set. Further, the delay time of each delay circuit provided corresponding to each microphone forming a linear array orthogonal to the 1αα line array, which will be described later, is similarly set.

次に、第1の遅延回路8の出力信号は、All記マイク
ロホン1を含む直線配列の他の各マイクロホン回路系の
出力信号と共に、第1の混合回路1゜に供給される。し
たがって、前記混合回路1oからは、指向性パターンの
主軸の掃査に応じて、音の強さ、すなわち音源と指向性
の主軸との角度により、振幅が変化するアナログ信号が
出力されることとなる。なお、前記掃査は、音源位置の
変化よりも早いスピードで行なう必要がある。
Next, the output signal of the first delay circuit 8 is supplied to the first mixing circuit 1° together with the output signals of each of the other linearly arranged microphone circuit systems including the microphone 1. Therefore, the mixing circuit 1o outputs an analog signal whose amplitude changes depending on the intensity of the sound, that is, the angle between the sound source and the main axis of the directivity, in accordance with the scanning of the main axis of the directivity pattern. Become. Note that the scanning needs to be performed at a faster speed than the change in the sound source position.

次に、このアナログ信号は、500 flzから11c
 Hzの帯域(これは音声信号のほぼ中心帯域に相当す
る)を有するバンドパスフィルタ11を経て、A/I)
変換器(回路)19に入力され、ディジタル信号に変換
される。このディジタル信号は、Ilo  ポー1−1
8を介して、C915に入力され、ここで、前記マイク
ロホン1を含む直線配列方向での音源位■Hが検知され
ることとなる。
This analog signal then goes from 500 flz to 11c
A/I)
The signal is input to a converter (circuit) 19 and converted into a digital signal. This digital signal is Ilo port 1-1
8, the signal is input to C915, where the sound source position H in the linear arrangement direction including the microphone 1 is detected.

ところで、前述したように、予定方向を掃査するために
必要な各指向性パターンを得るために、予め各遅延回路
に供給する矩形波信号に対応する指令信号(デジタル信
号)の組が、予め複数組(例えば1〜100)設定しで
ある。
By the way, as mentioned above, in order to obtain each directivity pattern necessary for scanning in the planned direction, a set of command signals (digital signals) corresponding to the rectangular wave signals to be supplied to each delay circuit is prepared in advance. Multiple sets (for example, 1 to 100) are set.

それ故に、このC115による音源位置の検知は、前記
指令信号の各組ごとに得られる複数のアナログ信号のう
ち、振幅が最大のものに相当する前記デジタル信号(こ
れをデータ番号lとする;タソし、iは1〜100の中
の1つ)を検出することで行なわれる。
Therefore, the detection of the sound source position by this C115 is performed using the digital signal (this is designated as data number l; (where i is one from 1 to 100).

ところで、上記の鰭、明は、マイクロホン1を含む直線
配列(ここでは、これを前述した直線配列■とする)方
向での指向性パターンの主軸掃査についてであったが、
2次元のf源位1M情報を得るためには、前述したよう
に、西1]記IH線配列■と直交する;有線配列(ここ
では、これを前述した直線配列Jとする)方向での指向
性パターンQJ gI軸1市査を、前記直線配列1方向
の指向性パターンの主軸掃査と同じように行なう必要が
ある。
By the way, the above explanation was about the principal axis scanning of the directivity pattern in the direction of the linear array (here, this is referred to as the aforementioned linear array ■) including the microphone 1.
In order to obtain the two-dimensional f source position 1M information, as mentioned above, it is necessary to The directivity pattern QJ gI axis 1 inspection needs to be performed in the same way as the main axis scanning of the directivity pattern in one direction of the linear array.

この後者の指向性パターンの主軸Rh Mによ−)で、
直線配列J方向での音源の位置、す4fね15仮数のア
ナログ信号のうち振ψMが最大のものに相当するディジ
クル信号(データ番号j、ただし、jは1〜100 の
中の1つ)を検出することが出来る。
According to the main axis Rh M of this latter directivity pattern,
The position of the sound source in the J direction of the linear array, the digital signal (data number j, where j is one from 1 to 100) corresponding to the one with the largest amplitude ψM among the analog signals with 4 f and 15 mantissas. Can be detected.

したがって、上記のようにして検出されたデータ番号i
、jにより、音源の正確な位置を知ることができるので
ある。
Therefore, the data number i detected as above
, j, it is possible to know the exact location of the sound source.

次に、第3図において、マイクアンプ5の出力信号は、
径路6に、しって、前記第1の遅延回路8と同様にB 
B D素子からなる第2の遅延回路9に供給されている
。この遅延回路9は、前述した指向性パターンの主軸掃
査によって決定された音源の位置情報に基づいて、マイ
クロホン1の指向性の主軸を、前記音源の位置方向に向
けさせるためのものである。
Next, in FIG. 3, the output signal of the microphone amplifier 5 is
Similarly to the first delay circuit 8, B is connected to the path 6.
The signal is supplied to a second delay circuit 9 consisting of a BD element. This delay circuit 9 is for directing the main axis of the directivity of the microphone 1 in the direction of the position of the sound source, based on the position information of the sound source determined by the above-described main axis scanning of the directivity pattern.

ところで、この遅延回路9の遅延時間は、後述するよう
に、Cい15  の演算結果として得られた指令信号に
より、Ilo  ボート17を介して径路12 を経て
、前記第2の遅延回路9に供給される矩形波信号の周波
数によって定まる。
By the way, as will be described later, the delay time of this delay circuit 9 is supplied to the second delay circuit 9 via the Ilo boat 17 and the path 12 based on the command signal obtained as a result of the calculation of C15. It is determined by the frequency of the rectangular wave signal.

なお、Ilo  ポート17からは、マイクロホン装置
を構成する各マイクロホンおよびそれに接続されたマイ
クアンプの後段に設けられた遅延回路(第2の遅延回路
9に相当吏る遅延回路)のそれぞれに供給される矩形波
信号(遅延時間設定信号)が出力されている。この矩形
波信号の周波数は、前述した音源の探索結果に基づいて
、マイクロホン装置を構成するマイクロホン全体から得
られる指向性の主軸が、前記音源方向へ向くような値で
ある。
In addition, from the Ilo port 17, a signal is supplied to each microphone constituting the microphone device and a delay circuit (a delay circuit equivalent to the second delay circuit 9) provided after the microphone amplifier connected thereto. A rectangular wave signal (delay time setting signal) is output. The frequency of this rectangular wave signal is such that the main axis of the directivity obtained from the entire microphone constituting the microphone device is directed toward the sound source, based on the sound source search results described above.

ところで、径路14は、後述するi 51fflから明
らかなように、第2の遅延回路9の出力信号を、第2の
混合回路に供給するためのものである。
By the way, the path 14 is for supplying the output signal of the second delay circuit 9 to the second mixing circuit, as is clear from i51ffl described later.

次に、マイクロホン全体の指向性の主軸を、音源の位置
方向に向けさせる矩形波信号の周波数の演算導出方法に
ついて、図面を参照して説明する。
Next, a method for calculating and deriving the frequency of a rectangular wave signal that directs the main axis of directivity of the entire microphone in the direction of the position of the sound source will be described with reference to the drawings.

第4図は、17個のマイクロホンを2次元面上に配列し
た一例を示すマイクロホン配列図である。
FIG. 4 is a microphone arrangement diagram showing an example in which 17 microphones are arranged on a two-dimensional plane.

例えば、音源SIの位置を(++j+2゜)とし、個々
のマイクロホンの位置を(i’ +j”+0)とすると
、マイクロホンとfiの距離Li’j’は、(1)式で
表わされる。
For example, when the position of the sound source SI is (++j+2°) and the position of each microphone is (i'+j''+0), the distance Li'j' between the microphone and fi is expressed by equation (1).

なお、ここで1は、直線配列■方向での指向性パターン
の主軸掃査によって得られた前記データ番号1(i=1
.2.・・・・・・・・・m)に対応している1であり
、jは、IK線線配列力方向の指向性パターンの主軸掃
査によって得られた前記データ番号j(j=1.2.・
・・・・・・・・ m)に対応しているjである。また
、Zoは、マイクロホン配列された面、すなわちI−J
面から音源に至る距離を示す。
Note that 1 here is the data number 1 (i = 1
.. 2. . . . m), and j is the data number j (j=1. 2.・
・・・・・・・・・ j corresponding to m). In addition, Zo is the surface where the microphones are arranged, that is, I-J
Indicates the distance from the surface to the sound source.

また、個々のマイクロホンと音源との距離I、il j
lのうち、最大値をLmaxとすれば、前記Lmaxの
マイクロホンと他のマイクロホンとの伝播時間差T I
 l jl  は、(2)式で表わされる。
Also, the distance I, il j between each microphone and the sound source
If the maximum value of l is Lmax, then the propagation time difference T I between the microphone of Lmax and other microphones is
l jl is expressed by equation (2).

Ti’ j’ −(Lrnax−Li’ j’ ) /
 340.0  (S) −−−−・・(2)この伝播
時間差Ti′j′が導出されれば、個々の第2の遅延回
路へ供給する矩形波信号の周波数は、一般に、(3)式
で表わされる。
Ti'j'-(Lrnax-Li'j')/
340.0 (S) --- (2) Once this propagation time difference Ti'j' is derived, the frequency of the rectangular wave signal supplied to each second delay circuit is generally (3) It is expressed by the formula.

fl+ jI=ty/’r11jl+l)  ・・−・
・・・・・ ・ ・・・・・・・・・・・・・曲用・・
+31なお、ここでa r bは、マイクロボン配列を
用いたマイクロホン装置ごとに決まる定髄である。
fl+ jI=ty/'r11jl+l) ・・・-・
・・・・・・ ・ ・・・・・・・・・・・・ Song use ・
+31 Note that here, a r b is a fixed value determined for each microphone device using a microbon array.

すなわち、以上のようにして、前記側々の第2の遅延回
路へ供給する矩形波信号の周σI/Ir9.を決定する
ことができる。
That is, as described above, the frequency σI/Ir9 . can be determined.

次に、本発明のマイクロホン装置の第1の′if、施例
を流側図に示し、これについて説、明する3、同図にお
いて、第3図と同一個所および同e?部分は同一符号で
示す。
Next, a first example of the microphone device of the present invention is shown in a flow side view, and will be explained and explained.3 In the same figure, the same parts as in FIG. Parts are indicated by the same reference numerals.

24 、25は、各マイクロホン系に股11された第1
および第2の遅延回路(第3図では、遅延回路8゜9に
相当する)をブロックとしてまとめた第1および第2の
遅延回路ブロックである。
24 and 25 are the first microphones connected to each microphone system.
and a second delay circuit (corresponding to delay circuit 8.9 in FIG. 3) are grouped together as a first and second delay circuit block.

なお、第1の遅延回路ブロック24 は、前述したよう
に、音源を探索するために、指向性パターンの主軸掃査
を行なうものである。この遅延回路ブロック24を構成
する各遅延回路へ供給される矩形波(8号は、前述した
ように、c、15がらの指令信号に応じて、Ilo  
ポート16を介して出力される。この矩形波信号の周波
数は、各マイクロボン系ごとに異なり、また時間的に変
化していることは、前述した説、明から明らかである。
As described above, the first delay circuit block 24 performs principal axis scanning of the directivity pattern in order to search for a sound source. A rectangular wave (No. 8 is supplied to each delay circuit constituting the delay circuit block 24, as described above, Ilo
Output via port 16. It is clear from the above explanation that the frequency of this rectangular wave signal differs for each microbon system and changes over time.

−力、第2の遅延回路ブロック25は、マイクロボン全
体の指向性パターンの主軸を、音源方向に向すさせるた
めのものである。この遅延回路ブロック25 を構成す
る各遅延回路の遅延時間を設定する矩形波信号は、C1
5により、第4図で説明したように、演算導出された指
令信号に応じて、Ilo  ポート17から供給される
- The second delay circuit block 25 is for directing the main axis of the directivity pattern of the entire microbon toward the sound source. The rectangular wave signal that sets the delay time of each delay circuit constituting this delay circuit block 25 is C1
5, the signal is supplied from the Ilo port 17 in response to the calculated command signal, as explained in FIG.

γjお、この矩形波イg号の周波数は、各マイクロホン
系ごとに異なるが、音源の位置に変化がなければ時間的
には一定である。
γj The frequency of this rectangular wave Ig differs for each microphone system, but is constant over time unless the position of the sound source changes.

第2の遅延回路ブロック25の各マイクロボン系の遅延
回路のそれぞれの出力イイ号は、第2の混合回路20に
供給され、ここで混合される。この混合回路20の出力
は、200H7から5 k I(zの帯域(はばf疼蛍
域に相当する)を有するバンドパスフィルタ21 およ
びブリメインアンプ22を介して、スピーカシステム2
3に供給される。この結果、スピーカシステム23から
は、音が出力されることとなる。
The respective output signals of the microbond type delay circuits of the second delay circuit block 25 are supplied to the second mixing circuit 20 and mixed there. The output of this mixing circuit 20 is sent to the speaker system 2 via a bandpass filter 21 having a band of 200H7 to 5kI (corresponding to the z band (corresponding to the high frequency band) and a main amplifier 22.
3. As a result, the speaker system 23 outputs sound.

次に、C115における信号の入出力および演算の順序
について、第6図のフローチャートを用いて説明する。
Next, the input/output of signals and the order of calculations in C115 will be explained using the flowchart shown in FIG.

第5図に示すマイクロホン装置の醒源がオンになり、C
p15  において、演算がスタートすると、まず、ス
テップS1では、前述したように、直線配列■を形成す
る各マイクロホンで得られる指向性の主軸で、1111
把直線配列工方向の掃査を行ζ「わせる指令信号が出力
される。
The alarm source of the microphone device shown in FIG. 5 is turned on, and C
When the calculation starts at step S1, first, as mentioned above, the main axis of the directivity obtained by each microphone forming the linear array 1 is
A command signal for sweeping in the straight line alignment direction is output.

ステップS2では、前記指令1言号に応じて、IH線配
列I力同を掃査して得られたデータが人力される。
In step S2, data obtained by scanning the IH line array I is input manually in accordance with the first command.

次に、ステップS3では、前述したように、直線配列J
を形成する各マイクロホンで得られる指向性の主軸で、
前記直線配列J方向の掃査を行なわせる指令信号が出力
される。
Next, in step S3, as described above, the linear array J
The main axis of directivity obtained by each microphone forming the
A command signal is output that causes scanning to be performed in the J direction of the linear array.

ステップS4では、前記指令信号に応じて直線配列J方
向を掃査して得られたデータが入力される。
In step S4, data obtained by scanning the linear array J direction in response to the command signal is input.

次に、ステップS5では、前記1a線配列■およびJ方
向を掃査して得られたデータの最大値(前述した複数の
アナログ信号のうち振幅が最大のものに対応する)が予
定値以上であるか否かを判断し、前記予定値に達してい
ない場合には、音源なしとしてステップS1に戻る。予
定値に達している場合には、ステップS6に進む。
Next, in step S5, if the maximum value of the data obtained by scanning the 1a line array ■ and the J direction (corresponding to the one with the largest amplitude among the plurality of analog signals described above) is greater than or equal to the predetermined value. It is determined whether there is a sound source or not, and if the expected value has not been reached, it is determined that there is no sound source and the process returns to step S1. If the scheduled value has been reached, the process advances to step S6.

ステップS6では、曲線直線配列IおよびJ方向を掃査
して得られたデータの最大値(具体的には、611述し
たデータ番号iおよびj)から音源の位置を決定する。
In step S6, the position of the sound source is determined from the maximum value of the data obtained by scanning the curved line arrays I and J directions (specifically, data numbers i and j mentioned in 611).

ステップS7では、前述した(1)〜(3)式のit 
fiを行γSう。
In step S7, it of the above-mentioned equations (1) to (3) is
Let fi go γS.

ステップS8では、前記ステップS7のIII′I!4
結果に基づいて、マイクロホン全体の指向性の主軸を、
音源方向へ向けるための指令信号を出力4る。
In step S8, III'I! of step S7! 4
Based on the results, the main axis of directivity of the entire microphone is
Outputs a command signal 4 to direct toward the sound source.

なお、その後は、再びステップS1に戻る。Note that after that, the process returns to step S1 again.

ところで、ステップS7の#1算結求に基づいて、ステ
ップS8で一日、マイクロボン全体の指向性の主軸を音
源方向へ向けさせる指令信号が出力されると、前記ステ
ップS7で、新たな計算結果が得られない限り、前記出
力は変化しない。
By the way, when a command signal is output in step S8 to direct the main axis of the directivity of the entire microbon toward the sound source direction based on calculation result #1 in step S7, a new calculation is performed in step S7. The output does not change unless a result is obtained.

なお、第5図の実施例(第1の実施例)では、本発明者
の実験結果によると、第6図のフローチャートをスター
トさせてからステップS 17jいしステップS8を経
て、再びステップS1へもどるまで、約0.2秒であっ
た。
In the embodiment shown in FIG. 5 (first embodiment), according to the experimental results of the present inventor, after starting the flowchart shown in FIG. 6, the flowchart shown in FIG. It took about 0.2 seconds.

また、この第1の実施例では、互いに直交する直線配列
を形成するマイクロホンの指向性の主軸を掃査すること
で、音源の位置を探索しているが、他の配列法によって
も、音源の位置を探索できることは勿論である。さらに
、この第1の本実施例では、マイクロホン全体の指向性
の主軸を、音源方向へ向けさせる矩形波信号の周波数決
定を、マイクロコンピュータで行なっているが、必ずし
もマイクロコンピュータに限定されることはなく、他の
回路系によっても行い得る。
In addition, in this first embodiment, the position of the sound source is searched by scanning the main directivity axes of the microphones that form a linear array that is orthogonal to each other. Of course, the location can be searched. Furthermore, in this first embodiment, the frequency of the rectangular wave signal that directs the main axis of directivity of the entire microphone toward the sound source is determined by a microcomputer, but this is not necessarily limited to a microcomputer. It can also be done by other circuit systems.

次に、本発明のマイクロホン装置の他の実施例(第2の
実施例)を第7図に示し、これについて説明する。同図
において、A1〜A5は直線配列されたマイクロホン、
31a〜35a  はサンプル・ホールドアンプ(S/
HTンブ)、31b−85bはA/D変換回路、31c
〜35c はBBDまたはCCDからなる遅延回路、4
2.43は I10ポート、44はC2,45は混合回
路、46 は出力端子、47 はメモリである。
Next, another embodiment (second embodiment) of the microphone device of the present invention is shown in FIG. 7, and will be described. In the figure, A1 to A5 are microphones arranged in a straight line;
31a to 35a are sample/hold amplifiers (S/
HT nbu), 31b-85b is the A/D conversion circuit, 31c
~35c is a delay circuit consisting of BBD or CCD, 4
2.43 is an I10 port, 44 is C2, 45 is a mixing circuit, 46 is an output terminal, and 47 is a memory.

第7図において、マイクロホンA1〜A5の出力は、 
S / Hアンプ31a〜35a  において、サンプ
リングおよびホールドされた後、A/D変換回路31b
〜35b  によりディジタル信号に変換される。この
ディジタル信号は、Ilo  ポート42およびC24
4を介してメモリ47 にデータとして保存される。上
記の動作は、予め設定された時間(データ増込時間)t
c継続される。
In FIG. 7, the outputs of microphones A1 to A5 are:
After being sampled and held in the S/H amplifiers 31a to 35a, the A/D conversion circuit 31b
~35b is converted into a digital signal. This digital signal is connected to Ilo port 42 and C24.
4 and stored as data in the memory 47. The above operation is performed for a preset time (data addition time) t.
ccontinued.

次に、前記データを用いて、C144において、相互相
関関数Cijを、(4)式に従って演算する。
Next, in C144, a cross-correlation function Cij is calculated according to equation (4) using the data.

C1j(τ)”P、:1 (t )X1g (を十τ)
/N  ・・・・・・・・・・・・・・・・・・・・・
(4)ただし、ここで、E4  はマイクロホンA1〜
A5の中の一つのマイクロホン1の出力値、Ejはマイ
クロホンA1〜A5の中の1つのマイクロホンj(l〜
j)の出力値、τは隔り時間(ラグ)。
C1j(τ)”P, :1 (t)X1g (10τ)
/N ・・・・・・・・・・・・・・・・・・・・・
(4) However, here, E4 is the microphone A1~
The output value of one microphone 1 in A5, Ej is the output value of one microphone j (l~
j) output value, τ is the interval time (lag).

Nはデータ数である。N is the number of data.

相互相関関数C1j  は、第8図に示すように、ラグ
τが 丁jtで最大値をとる。ここで、T、lは、マイ
クロホンiには時刻tiに、マイクロホンjには時刻t
、jに音源からの音波が到達するが、その時間差を表わ
す。
As shown in FIG. 8, the cross-correlation function C1j takes a maximum value when the lag τ is equal to jt. Here, T, l are for microphone i at time ti and for microphone j at time t
, j represents the time difference between the arrival of sound waves from the sound source.

また、時間差 Tjl は、(5)式から明らかなよう
に、それが正ならばマイクロホンjの出力が、マイクロ
ホン1の出力よりTji  だけ遅れていることを示す
。逆に時間差Tji  が、負ならばマイクロホンiの
出力が、マイクロホンjの出力よりTljだけ遅れてい
ることを示す。
Further, as is clear from equation (5), if the time difference Tjl is positive, it indicates that the output of the microphone j lags behind the output of the microphone 1 by Tji. Conversely, if the time difference Tji is negative, it indicates that the output of microphone i lags behind the output of microphone j by Tlj.

Tjl = TjTi  ・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・・・・
・(5)したがって、各マイクロホンA1〜A5のうち
適当な一つ、例えばマイクロホンiを基準として、この
マイクロホンiとその他のマイクロホンとの時間差Ti
j は、相互相関関数より求めることができる。
Tjl = TjTi ・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・・・
・(5) Therefore, with a suitable one of the microphones A1 to A5, for example, microphone i, as a reference, the time difference Ti between this microphone i and the other microphones is
j can be determined from the cross-correlation function.

ところで、第7図において、マイクロホンA3を基準と
して、他の各マイクロホンとの時間差T8jを導出した
ところ、前記Tgj(Tlll + T82+ TB8
+ TH4+Tl1s  )は、例えば、第9図のよう
に1jったとする。
By the way, in FIG. 7, when the time difference T8j with each other microphone is derived using microphone A3 as a reference, the above Tgj(Tllll + T82 + TB8
+TH4+Tl1s) is, for example, 1j as shown in FIG.

マイクロホンA1〜A5から1jるマイクロホン配列の
指向性の主軸を、音源方向へ向けさぜるためには、正確
には、前記各マイクロホンA1〜A5の出力を、それぞ
れ遅延回路を介して、時間軸上で一致させる必要がある
。この際、基準となるのは、前記マイクロホンA1〜A
5のうち、時間差TIj  が負の最大と4fるマイク
ロホンである。
In order to direct the main axis of the directivity of the microphone array from microphones A1 to A5 toward the sound source, precisely, the output of each of the microphones A1 to A5 is directed to the time axis through a delay circuit. Must match above. At this time, the reference is the microphones A1 to A.
Among the microphones 5 and 5, this is the microphone with the maximum negative time difference TIj of 4f.

すr(わち、第7図の実施例においては、第9図から明
らかなように、マイクロホンA5の時間差T8、を基準
として、各マイクロホンへの遅延時間を設定する必要が
ある。具体的には、Tss  の絶対値(矢印の長さ)
を、各T s、4 (T8、+ Ta2 + T0n 
r T841T1、)に加算することにより、第 10
図に示TT5゜(Ts+ 1 ”’521 Tss +
 T54 + ’14B )を、各マイクロホンA1〜
A5の遅延回路31c〜35cの遅延時間として設定す
ることができる。すなわち、第10図に示すそれぞれの
T5j  に対応した指令信号を、C244からIlo
 ポート43  へ出力することとなる。
(In the embodiment of FIG. 7, as is clear from FIG. 9, it is necessary to set the delay time for each microphone based on the time difference T8 of microphone A5. Specifically, is the absolute value of Tss (length of the arrow)
, each T s, 4 (T8, + Ta2 + T0n
r T841T1,), the 10th
The figure shows TT5゜(Ts+1"'521 Tss+
T54 + '14B) for each microphone A1~
It can be set as the delay time of the delay circuits 31c to 35c of A5. That is, the command signals corresponding to each T5j shown in FIG. 10 are sent from C244 to Ilo.
It will be output to port 43.

前述したように、第7図において、遅延回路31c〜3
5cは、BBDまたはCCDで構成されているので、矩
形波信号(遅延時間設定信号)の周波数により、遅延時
間を連続可変することができる。
As mentioned above, in FIG. 7, the delay circuits 31c to 3
Since 5c is composed of a BBD or a CCD, the delay time can be continuously varied depending on the frequency of the rectangular wave signal (delay time setting signal).

すなわち、遅延回路31c〜35c  の中の一つの遅
延回路の遅延時間なfi とし、前記矩形波信号の周波
数をfi とすると、両者の関係は(6)式のようにな
る。
That is, when fi is the delay time of one of the delay circuits 31c to 35c and fi is the frequency of the rectangular wave signal, the relationship between them is as shown in equation (6).

τ、=に/f、・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・・・・
・・・・(6)ただし、ここでKは、遅延回路ごとに決
まる比例定数である。
τ,=to/f,・・・・・・・・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・・・
(6) However, K here is a proportionality constant determined for each delay circuit.

したがって、Ilo  ポート43からは、前記指令信
号に対応し、かつ各遅延回路31c〜35cにおいて、
それぞれ予定の遅延が得られるような周波数の矩形波信
号を出力することとなる。
Therefore, from the Ilo port 43, corresponding to the command signal, and in each delay circuit 31c to 35c,
A rectangular wave signal having a frequency that provides a predetermined delay is output.

なお、−ヒ述のようにして設定された矩形波信号の周波
数flは、音源位置が移動し、その結果、Cp44から
それに応じた指令信号力月B力されない限り、変らない
ことは勿論である。
It goes without saying that the frequency fl of the rectangular wave signal set as described above will not change unless the sound source position moves and, as a result, a corresponding command signal is applied from Cp44. .

また、前記矩形波信号の周波数flは、il1図から明
らかなように、前記データ取込時間t。
Moreover, as is clear from FIG. il1, the frequency fl of the rectangular wave signal is equal to the data acquisition time t.

および前述したC944での演算時間tDを加算した時
間tTごとに変更することができる。
It can be changed every time tT, which is the addition of the calculation time tD in C944 described above.

ところで、第7図において、各マイクロホンA1〜A5
 の出力は、前述したように、遅延回路31c〜35c
  において、それぞれ所定時間遅延されて、混合回路
45へ供給される。したがって、出力端子46では、前
記マイクロホンA1〜A5の出力が、時間軸上で完全に
一致し、重ね合せられた信号が得られる。
By the way, in FIG. 7, each microphone A1 to A5
As mentioned above, the outputs of the delay circuits 31c to 35c
, each signal is delayed by a predetermined time and supplied to the mixing circuit 45. Therefore, at the output terminal 46, the outputs of the microphones A1 to A5 completely match on the time axis, and a superimposed signal is obtained.

次に、第7図の実施例における主9な動作について、第
12図のフローチャートを用いて、さらに説、明する。
Next, nine main operations in the embodiment shown in FIG. 7 will be further explained using the flowchart shown in FIG.

第7図において、各マイクロホンA1〜A5から音声信
号が出力されると、ステップS1では、S/)I  ア
ンプ31a〜35aにおいて、前記出力をサンプリング
およびホールドする。
In FIG. 7, when audio signals are output from each of the microphones A1 to A5, in step S1, the outputs are sampled and held in the S/)I amplifiers 31a to 35a.

次に、ステップS2では、 A/D変換回路31b〜3
5bにおいて、前記S/Hアンプ31a〜35aの出力
をディジタル信号に変換する。
Next, in step S2, A/D conversion circuits 31b to 3
5b, the outputs of the S/H amplifiers 31a to 35a are converted into digital signals.

ステップS3では、前記ディジタル信号を、I10ボー
ト42およびCp44  を介してメモリ 47にデー
タ として保存する。
In step S3, the digital signal is stored as data in the memory 47 via the I10 port 42 and Cp44.

次に、ステップS4では、ステップS3でメモリ47に
保存したデータの最大値が、予定値以上であるか否かを
判断し、予定値に達していない場合には、音源なしとし
てステップS1に戻る。予定値に達している場合には、
ステップS5へ進む。
Next, in step S4, it is determined whether the maximum value of the data stored in the memory 47 in step S3 is greater than or equal to the planned value, and if it has not reached the planned value, it is determined that there is no sound source and the process returns to step S1. . If the planned value has been reached,
Proceed to step S5.

ステップS5では、ステップS3でのデータをもとに、
Cp44  で以下の演算を12、指令信号を出力する
In step S5, based on the data in step S3,
Cp44 performs the following calculations 12 and outputs a command signal.

(1)  まず、マイクロホンA1〜A5の中の一一一
)のマイクロホンiと、その曲のマイクロホンjとのそ
れぞれの相互相関関数C,,,(T)を、(4)式によ
り計算する。
(1) First, the respective cross-correlation functions C, .

(2)前記相互相関関数の計算結果から、基準となるマ
イクロホン1とその他のマイクロボンjとのそれぞれの
時間差 Tljを導出する。
(2) From the calculation results of the cross-correlation function, derive the respective time differences Tlj between the reference microphone 1 and the other microphones j.

(3)次に、前記時間a T 1jのうち負の最大値の
絶対値を、それぞれの’l’1jに加算することにより
、各マイクロホンの所要遅延時間に対応する指令信号を
、 I10ボート43へ出力する。
(3) Next, by adding the absolute value of the maximum negative value of the time a T 1j to each 'l' 1j, a command signal corresponding to the required delay time of each microphone is generated to the I10 boat 43. Output to.

ステップS6では、I10ボート43において、前記指
令信号および(6)式から、各遅延回路3]c〜35c
  へ出力する矩形波信号の周波数を設定出力する。
In step S6, in the I10 boat 43, from the command signal and equation (6), each delay circuit 3]c to 35c
Set and output the frequency of the square wave signal to be output to.

第7図の実施例の主要な動作は、以上の通りであるが、
I)11述したステップ81〜S6まで終了すると、再
びステップS1に戻り、同様の動作を繰り返すこととな
る。
The main operations of the embodiment shown in FIG. 7 are as described above.
I) When steps 81 to S6 described in 11 are completed, the process returns to step S1 and the same operation is repeated.

なお、第7図の実施例では、マイクロホンを5個とした
が、マイク配列を用いたマイクロホン装置では、一般に
よく知られているように、3個以上であれば何個であっ
ても差し支えなく、またその配列も任意で構わない。
In the embodiment shown in FIG. 7, there are five microphones, but as is generally well known in a microphone device using a microphone array, any number of microphones may be used as long as it is three or more. , and the arrangement can be arbitrary.

また、各マイクロホンへの遅延時間の設定を、各マイク
ロホンの位置と、任意の3個のマイクロホンの時間差に
より演算するようにしてもよい。
Further, the delay time setting for each microphone may be calculated based on the position of each microphone and the time difference between any three microphones.

このようにすれば、マイクロホンが3個以上であっても
、S/HアンプおよびA/D変換回路は、それぞれ3個
で足りることとなる。
In this way, even if there are three or more microphones, three S/H amplifiers and three A/D conversion circuits each are sufficient.

(効 果) 以上の説明から明らかなように、本発明によれば、マイ
ク配列を用いた狭指向性のマイクロホン装置において、
音源を自動的に探索し、かつ追跡できる効果がある。
(Effects) As is clear from the above explanation, according to the present invention, in a narrow directional microphone device using a microphone array,
It has the effect of automatically searching and tracking the sound source.

したがって、小ホール、会議場等においで、本発明のマ
イクロホン装置を用いれば、異なる話者の発言を次々と
収音でき、かつ音源以外の騒音等を排除することができ
る。
Therefore, if the microphone device of the present invention is used in a small hall, conference hall, etc., it is possible to successively pick up the speeches of different speakers, and to eliminate noises other than the sound source.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は直線配列されたマイクロホンによって形成され
る指向性パターンの一例を示す指向特性図、第2図は指
向性パターンの主軸掃査の方法について説明するための
直交するマイクロホン配列図、第3図は本発明のマイク
ロホン装置の第1の実施例の要部を示すブロック図、第
4図はマイクロホンを2次元面上に配列した一例を示す
マイクロホン配列図、第5図は本発明のマイクロホン装
置1の第1の実施例を示すブロック図、第6図は第5図
のC215における16号の入出力および演算のj朧序
を説明するためのフローチセ−1・、第7図は本発明の
マイクロホン装置の第2の実施例を示すブロック図、第
8図は相互相関関数とラグτとの関係を示す特性図、第
9図は各マイクロホン間の時1tjl差を1況明するた
めの図、第1O図は各遅延回路に設定される遅延時間を
説明するための図、第11図はデータ取込時間t。およ
び演−痺時間1))を加埠した時間 tTと矩形波信号
の周波数f1  との1腸係を説明するための図、第 
12図は第7図の動作を説明rるためのフローチャート
である。 1、A1〜A5・・・マイクロホン、8,9・・・第1
および第2の遅延回路、10..20・・・第1および
第2の混合回路、15.44・・・マイクロコンピュー
タ、16〜18゜42 、43  ・・rlo ホー 
ト、19 、31 b 〜35 b−A/D 変換回路
、24.25・・・第1および第2の−i′を延回路ブ
ロック、31a〜35a・・→ノンプル・ボールドアン
プ、31cm35 c・・・遅延回路、47・・・ メ
モリ代理人弁理士 平 木 道 人 −607− n      )べ 才5図 第6図 第7図 第8図 −Tii  OTji 第  9  図           第  1Q  
図−0+     −0+ 第11図 眉形彼信号の周波数f−。 tTtTtTt4  −−−−
Fig. 1 is a directional characteristic diagram showing an example of a directional pattern formed by linearly arranged microphones; Fig. 2 is an orthogonal microphone arrangement diagram for explaining a method of principal axis scanning of a directional pattern; Figure 4 is a block diagram showing the main parts of the first embodiment of the microphone device of the present invention, Figure 4 is a microphone arrangement diagram showing an example of arranging microphones on a two-dimensional surface, and Figure 5 is the microphone device of the present invention. 1. FIG. 6 is a block diagram showing the first embodiment of the present invention, FIG. A block diagram showing a second embodiment of the microphone device, FIG. 8 is a characteristic diagram showing the relationship between the cross-correlation function and the lag τ, and FIG. 9 is a diagram for clarifying the time 1tjl difference between each microphone. , FIG. 1O is a diagram for explaining the delay time set in each delay circuit, and FIG. 11 is a diagram for explaining the data acquisition time t. A diagram for explaining the relationship between the time tT and the frequency f1 of the rectangular wave signal with the addition of the paralysis time 1)).
FIG. 12 is a flowchart for explaining the operation of FIG. 7. 1, A1-A5...microphone, 8,9...first
and a second delay circuit, 10. .. 20...First and second mixing circuit, 15.44...Microcomputer, 16-18°42, 43...rlo hole
19, 31 b to 35 b-A/D conversion circuit, 24.25...first and second -i' extending circuit block, 31a to 35a...→non-pull bold amplifier, 31cm35 c. ...Delay circuit, 47...Memory agent Michihito Hiraki-607-n) Figure 5 Figure 6 Figure 7 Figure 8-Tii OTji Figure 9 Figure 1Q
Figure -0+ -0+ Figure 11 Frequency f- of the eyebrow-shaped signal. tTtTtTt4 -----

Claims (2)

【特許請求の範囲】[Claims] (1)予定の間隔でマイクロホン配列され、かつその中
の予定のマイクロホンで交差する2つの直線配列を形成
するようにした複数個のマイクロホンと、前記2つの直
線配列を形成する各マイクロホンの後段に設けられ、そ
れに入力される遅延時間設定信号に応じて該マイクロホ
ンの出力をそれぞれ予定時間遅延させる複数個の第1の
遅延回路と、前記各直線配列を形成するマイクロホンで
得られる指向性パターンの主軸を前記直線配列方向に周
期的に掃査できるように前記第1の遅延回路に所定のM
′If&時間設定信号を供給する手段と、前記第1の遅
延回路の各出力を混合する第1の混合回路と、前記複数
個のマイクロホンの後段に設けられ、それに入力される
遅延時間設定信号に応じて前記複数個のマイクロホンの
出力をそれぞれ予定時間遅延させる複数個の第2の遅延
回路と、前記第1の混合回路の出力を入力とし、音源位
置を検知するとともに、前記複数個のマイクロホンに到
達する前記音源からの音波が時間軸上で一致するように
前記第2の遅延回路のそれぞれに所定の遅延時間設定信
号を供給する手段と、前記第2の遅延回路の各出力を入
力とし、該出力を合成した信号を出力する第2の混合回
路とを具備したことを特徴とするマイクロホン装置。
(1) A plurality of microphones arranged at predetermined intervals to form two linear arrays that intersect at the predetermined microphones, and a rear stage of each microphone forming the two linear arrays. a plurality of first delay circuits, each of which delays the output of the microphone by a predetermined time according to a delay time setting signal input thereto; and a main axis of a directivity pattern obtained by the microphones forming each linear array. A predetermined M is applied to the first delay circuit so as to periodically sweep in the linear arrangement direction.
a first mixing circuit for mixing each output of the first delay circuit; a plurality of second delay circuits that respectively delay the outputs of the plurality of microphones by a predetermined time according to the inputs thereof and the output of the first mixing circuit, detect the position of the sound source, and means for supplying a predetermined delay time setting signal to each of the second delay circuits so that the arriving sound waves from the sound source coincide on the time axis; each output of the second delay circuit is input; A microphone device comprising: a second mixing circuit that outputs a signal obtained by combining the outputs.
(2)既知の位置にある複数個のマイクロホンと、前記
複数個のマイクロホンのうち少なくとも3個のマイクロ
ホンの後段に設けられ、該マイクロホンの出力信号をサ
ンプリングおよびホールドするサンプル・ホールド回路
と、前記サンプル・ホールド回路のそれぞれの後段に設
けられ、前記サンプル・ホールド回路の出力をディジタ
ル信号に変換するA/D変換回路と、予定時間に得られ
たAil記ディジタル信号をデータとして記憶する手段
と、前記f反数側のマイクロホンの後段にそれぞれ設け
られ、それに入力される遅延時間設定信号に応じて前記
複数個のマイクロホンの出力をそれぞれ予定時間遅延さ
せる複数個の遅延回路と、前記記憶手段に記憶されてい
るデータをもとにして前記複数個のマイクロホンに到達
する音源からのV波が時間軸上で一致するように前記遅
延回路のそれぞれに所定の遅延時間設定イg号を供給す
る手段と、11]記遅延回路の各出力を入力とし、該出
力を合成した信号を出力する混合回路とを具備したこと
を特徴とするマイクロホン装置。
(2) a plurality of microphones located at known positions; a sample and hold circuit provided after at least three of the plurality of microphones to sample and hold output signals of the microphones; - an A/D conversion circuit provided after each of the hold circuits and converting the output of the sample/hold circuit into a digital signal; and means for storing the Ail digital signal obtained at the scheduled time as data; a plurality of delay circuits each provided after the microphone on the f-counter number side and delaying the output of the plurality of microphones by a scheduled time in accordance with a delay time setting signal input thereto; means for supplying a predetermined delay time setting signal to each of the delay circuits so that the V waves from the sound source reaching the plurality of microphones coincide on the time axis based on the data; 11] A microphone device comprising a mixing circuit which receives each output of the delay circuit as an input and outputs a signal obtained by combining the outputs.
JP57193520A 1982-11-05 1982-11-05 Micophone device Granted JPS5983496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57193520A JPS5983496A (en) 1982-11-05 1982-11-05 Micophone device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57193520A JPS5983496A (en) 1982-11-05 1982-11-05 Micophone device

Publications (2)

Publication Number Publication Date
JPS5983496A true JPS5983496A (en) 1984-05-14
JPS6364120B2 JPS6364120B2 (en) 1988-12-09

Family

ID=16309430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57193520A Granted JPS5983496A (en) 1982-11-05 1982-11-05 Micophone device

Country Status (1)

Country Link
JP (1) JPS5983496A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006266767A (en) * 2005-03-23 2006-10-05 Meidensha Corp Fluid leakage monitoring device of piping network
JP2006311104A (en) * 2005-04-27 2006-11-09 Star Micronics Co Ltd Microphone system
JP2006332736A (en) * 2005-05-23 2006-12-07 Yamaha Corp Microphone array apparatus
CN104637495A (en) * 2013-11-08 2015-05-20 宏达国际电子股份有限公司 Electronic device and audio signal processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2122371C (en) * 1992-08-27 1998-03-03 Osamu Okada Moving picture coding apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INTRODUCTION TO ADAPTIVE ARRAYS=1980 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006266767A (en) * 2005-03-23 2006-10-05 Meidensha Corp Fluid leakage monitoring device of piping network
JP2006311104A (en) * 2005-04-27 2006-11-09 Star Micronics Co Ltd Microphone system
WO2006118047A1 (en) * 2005-04-27 2006-11-09 Star Micronics Co., Ltd. Microphone system
JP2006332736A (en) * 2005-05-23 2006-12-07 Yamaha Corp Microphone array apparatus
CN104637495A (en) * 2013-11-08 2015-05-20 宏达国际电子股份有限公司 Electronic device and audio signal processing method
CN104637495B (en) * 2013-11-08 2019-03-26 宏达国际电子股份有限公司 Electronic device and acoustic signal processing method

Also Published As

Publication number Publication date
JPS6364120B2 (en) 1988-12-09

Similar Documents

Publication Publication Date Title
US11381906B2 (en) Conference system with a microphone array system and a method of speech acquisition in a conference system
US10972835B2 (en) Conference system with a microphone array system and a method of speech acquisition in a conference system
CA1278086C (en) Sound location arrangement
Weinstein et al. A 1020-node modular microphone array and beamformer for intelligent computing spaces
US9973848B2 (en) Signal-enhancing beamforming in an augmented reality environment
US7313243B2 (en) Sound pickup method and system with sound source tracking
US20190349677A1 (en) Distributed Audio Capture and Mixing Controlling
EP1865510A2 (en) An audio recording system
CN111445920B (en) Multi-sound source voice signal real-time separation method, device and pickup
CN110389597B (en) Camera adjusting method, device and system based on sound source positioning
CN107534725A (en) A kind of audio signal processing method and device
US20080267422A1 (en) Microphone Array and Digital Signal Processing System
CN109804559A (en) Gain control in spatial audio systems
JPH11304906A (en) Sound-source estimation device and its recording medium with recorded program
JP3548706B2 (en) Zone-specific sound pickup device
US7397427B1 (en) Phase event detection and direction of arrival estimation
US20130148814A1 (en) Audio acquisition systems and methods
CN112672251A (en) Control method and system of loudspeaker, storage medium and loudspeaker
JPS5983496A (en) Micophone device
JP3279040B2 (en) Microphone device
JPH06351015A (en) Image pickup system for video conference system
JP2008061186A (en) Directional characteristic control apparatus, sound collecting device and sound collecting system
US20140269198A1 (en) Beamforming Sensor Nodes And Associated Systems
US3130408A (en) Signal direction finder system
CN114994607B (en) Acoustic imaging method supporting zooming