JP3242006B2 - Spot sound collector - Google Patents

Spot sound collector

Info

Publication number
JP3242006B2
JP3242006B2 JP24255596A JP24255596A JP3242006B2 JP 3242006 B2 JP3242006 B2 JP 3242006B2 JP 24255596 A JP24255596 A JP 24255596A JP 24255596 A JP24255596 A JP 24255596A JP 3242006 B2 JP3242006 B2 JP 3242006B2
Authority
JP
Japan
Prior art keywords
sound
sound source
distance
microphone
time difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24255596A
Other languages
Japanese (ja)
Other versions
JPH1070786A (en
Inventor
潔 金子
節男 岡田
聡 村上
Original Assignee
株式会社ハドソン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ハドソン filed Critical 株式会社ハドソン
Priority to JP24255596A priority Critical patent/JP3242006B2/en
Publication of JPH1070786A publication Critical patent/JPH1070786A/en
Application granted granted Critical
Publication of JP3242006B2 publication Critical patent/JP3242006B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、スポット集音装置
に関し、特に、特定距離だけ離れた音源から発せられた
音声等を選択的に取り出すのに好適なスポット集音装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a spot sound collecting apparatus, and more particularly to a spot sound collecting apparatus suitable for selectively extracting a sound or the like emitted from a sound source separated by a specific distance.

【0002】[0002]

【従来の技術】複数の音源のうち、特定の音源で発生し
た音声等を選択的に取り出す装置として、例えば、特開
平7−135694号公報に記載されたマイクロフォン
がある。このマイクロフォンでは、集音したい音源と集
音したくない音源が観測位置から見て同じ方向にある場
合に、各々の音源から到来する音波のみを選択的に集音
することの困難性に鑑みてなされたものである。
2. Description of the Related Art A microphone described in Japanese Patent Application Laid-Open No. Hei 7-135694 is an example of a device for selectively extracting a sound or the like generated by a specific sound source from a plurality of sound sources. In this microphone, when the sound source to be collected and the sound source not to be collected are in the same direction viewed from the observation position, it is difficult to selectively collect only sound waves coming from each sound source. It was done.

【0003】すなわち、このマイクロフォンでは、近距
離の音源からの音波が平面波として近似でき、遠距離の
音源からの音波が球面波として近似できるという前提に
基づいて、観測位置に近い音源からの音波のみを選択的
に集音するものである。
That is, in this microphone, based on the assumption that sound waves from a sound source at a short distance can be approximated as plane waves and sound waves from a sound source at a long distance can be approximated as spherical waves, only sound waves from a sound source near an observation position can be approximated. Is selectively collected.

【0004】[0004]

【発明が解決しようとする課題】上記従来の集音装置ま
たはマイクロフォンには、次のような問題点があった。
すなわち、上述したように、上記従来のマイクロフォン
は、音波の種類が観測位置からの距離によって異なると
いう点に着目してなされている。したがって、観測位置
からほぼ等距離にあったり、少なくとも前記音波の種類
に違いがないような位置関係にあったりする複数の音源
のうち、特定の音源からの音声等を検出することはでき
ないという問題点がある。
The above-mentioned conventional sound collecting device or microphone has the following problems.
That is, as described above, the above-described conventional microphone pays attention to the fact that the type of sound wave varies depending on the distance from the observation position. Therefore, it is not possible to detect a sound or the like from a specific sound source among a plurality of sound sources that are substantially equidistant from the observation position or at least have a positional relationship such that there is no difference in the type of the sound wave. There is a point.

【0005】また、複数の音源のうち、特定の音源から
の音声、例えば、人ごみの中での特定人の会話や、動物
園内での動物の音声等を、その周囲の音声から分離、強
調して再生したいという要望がある。しかし、従来の集
音装置ではこのような要望に応えることができなかっ
た。
[0005] In addition, voices from a specific sound source among a plurality of sound sources, for example, conversation of a specific person in crowds, sounds of animals in a zoo, and the like are separated and emphasized from surrounding sounds. There is a request to play. However, the conventional sound collecting device cannot meet such a demand.

【0006】本発明は、上記問題点を解消し、複数の音
源から発せられる音声等のうち、特定の音源からの音声
を選択的に抽出することができるスポット集音装置を提
供することを目的とする。
An object of the present invention is to solve the above-mentioned problems and to provide a spot sound collecting apparatus capable of selectively extracting a sound from a specific sound source from among sounds emitted from a plurality of sound sources. And

【0007】[0007]

【課題を解決するための手段】上記の課題を解決し、目
的を達成するための本発明は、少なくとも2台のマイク
ロフォンと、前記マイクロフォンで検出された音声デ
ータを格納する音声データ格納手段と、音源で発生され
た音声が該音源から最も遠く離れたマイクロフォンまで
到達する時間を基準にして、この時間と前記音源から各
マイクロフォンまで音声が到達する時間との差を検出す
る時間差算出手段と、前記音声データ格納手段に格納さ
れた各マイクロフォンから音声データを前記時間差に
対応した時間差で遅延させて読み出す音声データ読出手
段と、前記読み出された音声データを合成する合成手段
とを具備した点に第1の特徴がある。また、前記合成手
段で合成された音声データを再生する再生手段具備し
た点に第2の特徴があり、前記音源から各マイクロフォ
ンまでの距離を外部から入力する入力手段を具備した点
に第3の特徴がある。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems and achieve the object, the present invention provides at least two microphones and audio data storage means for storing audio data detected by each of the microphones. Generated by the sound source
Sound from the sound source to the farthest microphone
This time and the sound source
A time difference calculating means for detecting the difference between the time the sound reaches the microphone, the audio data from the microphones stored in the voice data storage unit to the time difference
A first feature is that there is provided audio data reading means for reading out with delay by a corresponding time difference, and synthesizing means for synthesizing the read audio data. A second feature is that a reproducing means for reproducing the audio data synthesized by the synthesizing means is provided, and a third feature is that an input means for externally inputting a distance from the sound source to each microphone is provided. There is a feature.

【0008】また、本発明は、視線感知センサと、前記
視線感知センサで検出された視線角度に基づいて該視線
感知センサおよび音源間の距離を算出する距離算出手段
と、前記視線感知センサおよび予め設定された各マイク
ロフォンの相対位置に基づいて音源から各マイクロフォ
ンまでの距離を算出する距離算出手段とで前記入力手段
を構成した点に第4の特徴がある。また、本発明は、前
記時間差算出手段で時間差を算出するために使用される
音速情報を補正するための大気情報を入力する入力手段
をさらに具備した点に第5の特徴がある。
The present invention also provides a line-of-sight sensor, distance calculating means for calculating a distance between the line-of-sight sensor and a sound source based on the line-of-sight angle detected by the line-of-sight sensor, A fourth feature lies in that the input means is constituted by a distance calculating means for calculating a distance from the sound source to each microphone based on the set relative position of each microphone. A fifth feature of the present invention is that the present invention further includes an input unit for inputting atmospheric information for correcting sound velocity information used for calculating the time difference by the time difference calculating unit.

【0009】上記第1ないし第5の特徴によれば、音声
データ格納手段から音声データを読み出す際に、音源お
よびマイクロフォンの距離に基づく音声到達時間の差だ
け、音源に近いマイクロフォンで検出された音声データ
を遅延させて読み出す。その結果、前記音源から発せら
れた音声が合成手段で強調され、再生手段から出力され
る。
According to the first to fifth features, when reading out the sound data from the sound data storage means, the difference between the sound arrival time based on the distance between the sound source and the microphone and the sound detected by the microphone close to the sound source. Reads data with a delay. As a result, the sound emitted from the sound source is emphasized by the synthesizer and output from the reproducer.

【0010】また、第4の特徴によれば、音源からマイ
クロフォンまでの距離を視線感知センサで検出された視
線角度に基づいて検出し、音声データ読出手段に供給す
ることができる。さらに、第5の特徴によれば、音声デ
ータ読み出しのための前記時間差を大気情報、例えば、
気温、気圧、湿度等に基づいて補正できる。
According to the fourth feature, the distance from the sound source to the microphone can be detected based on the line-of-sight angle detected by the line-of-sight sensor and supplied to the voice data reading means. Further, according to a fifth feature, the time difference for reading audio data is determined by using atmospheric information, for example,
Correction can be made based on temperature, atmospheric pressure, humidity, and the like.

【0011】[0011]

【発明の実施の形態】以下に、図面を参照して本発明を
詳細に説明する。まず、図3を参照して、本実施形態の
概要を説明する。同図において、音源SSは例えば公会
堂、ホール、広場等で講演、演説、歌唱等を行っている
人であり、これら公会堂等には2台のマイクロフォンM
1,M2が配置されている。前記マイクロフォンM1お
よびM2と音源SSとの距離はそれぞれd1,d2であ
り、距離d1とd2とは互いに等しくならないように該
マイクロフォンM1,M2を配置する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in detail with reference to the drawings. First, an outline of the present embodiment will be described with reference to FIG. In the figure, a sound source SS is a person who is giving a lecture, a speech, a singing, etc. in, for example, a public hall, a hall, a plaza, and the like.
1 and M2 are arranged. The distances between the microphones M1 and M2 and the sound source SS are d1 and d2, respectively, and the microphones M1 and M2 are arranged so that the distances d1 and d2 are not equal to each other.

【0012】このような位置関係で配置したマイクロフ
ォンM1,M2に音源SSから発せられた音声がそれぞ
れ到達するまでの時間t1,t2は、距離d1,d2を
音速cで除算した商として求められる。すなわち、次式
(f1),(f2)で算出できる。t1=d1/c…
(f1)、t2=d2/c…(f2) 換言すれば、音源SSから同時に発せられた音声は時間
t1とt2との時間差(Δt)で、マイクロフォンM
1,M2に到達する。したがって、マイクロフォンM
1,M2のうち、音源SSまでの距離が近い方で検出さ
れた音声を前記時間差Δtだけ遅延させる処理をした
後、他方のマイクロフォンで検出された音声と合成する
ことにより、音源SSからの音声を他からの音声よりも
強調することができる。すなわち、取得しようとする音
声Sと他の音声Nとの比S/Nを大きくすることができ
る。
The times t1 and t2 until the sound emitted from the sound source SS reaches the microphones M1 and M2 arranged in such a positional relationship are obtained as quotients obtained by dividing the distances d1 and d2 by the sound speed c. That is, it can be calculated by the following equations (f1) and (f2). t1 = d1 / c ...
(F1), t2 = d2 / c (f2) In other words, the sound simultaneously emitted from the sound source SS is the time difference (Δt) between the times t1 and t2, and the microphone M
1 and M2. Therefore, the microphone M
1 and M2, the sound detected from the sound source SS whose distance to the sound source SS is short is delayed by the time difference Δt, and then synthesized with the sound detected by the other microphone to thereby obtain the sound from the sound source SS. Can be emphasized more than other sounds. That is, the ratio S / N between the voice S to be acquired and the other voice N can be increased.

【0013】次に、本実施形態に係る集音装置の構成お
よび動作を説明する。図2は集音装置のハード構成を示
すブロック図である。同図において、演算装置1はCP
U2、ROM3、RAM4、操作パネル5、入力インタ
フェース6、および出力インタフェース7からなる。入
力インタフェース6にはマイクロフォンM1,M2が接
続され、出力インタフェース7にはスピーカ8が接続さ
れている。符号9はバスである。
Next, the configuration and operation of the sound collecting device according to the present embodiment will be described. FIG. 2 is a block diagram showing a hardware configuration of the sound collection device. In the figure, the arithmetic unit 1 has a CP
U2, ROM3, RAM4, operation panel 5, input interface 6, and output interface 7. The microphones M1 and M2 are connected to the input interface 6, and the speaker 8 is connected to the output interface 7. Reference numeral 9 denotes a bus.

【0014】上記構成により、ユーザは、操作パネル5
を使用して、音声を取得しようとする音源SSを特定す
るための距離情報d1,d2を入力する。該操作パネル
5は、必要に応じて気温および気圧等の大気情報を入力
できるように構成するのが好ましい。入力インタフェー
ス6を通じてマイクロフォンM1,M2から入力された
音声は、一旦、RAM4に格納され、ROM5に格納さ
れたプログラムに従って処理された後、出力インタフェ
ース7を通じてスピーカ8から出力される。
With the above configuration, the user can operate the operation panel 5
Is used, distance information d1 and d2 for specifying the sound source SS from which sound is to be obtained are input. It is preferable that the operation panel 5 is configured so that atmospheric information such as temperature and pressure can be input as needed. Voices input from the microphones M1 and M2 through the input interface 6 are temporarily stored in the RAM 4 and processed according to a program stored in the ROM 5, and then output from the speaker 8 through the output interface 7.

【0015】次に、前記演算装置1の要部機能を説明す
る。図1の機能ブロック図において、マイクロフォンM
1,M2から入力された音声はA/D変換器10,11
でデジタル音声情報s1,s2に変換され、前記RAM
4内に設定される音声データ格納部12に記憶される。
音声データ読出部13は読出クロックCL1,CL2を
音声データ格納部12に供給して前記デジタル音声情報
s1,s2を合成部14に読み出す。この読出クロック
CL1,CL2は、周期が同一であり、マイクロフォン
M1,M2および音源SS間の距離d1,d2による音
声到達時間差Δtだけタイミングがずれている。すなわ
ち、距離d1およびd2のうち、短い方に対応するマイ
クロフォンから入力された音声信号がΔtだけ遅延され
て合成部14に入力されるように読出クロックCL1,
CL2を調整する。
Next, the main functions of the arithmetic unit 1 will be described. In the functional block diagram of FIG.
A / D converters 10 and 11 input audio from M1 and M2.
Is converted into digital audio information s1 and s2 by the RAM
4 is stored in the voice data storage unit 12.
The audio data reading unit 13 supplies the read clocks CL1 and CL2 to the audio data storage unit 12 and reads the digital audio information s1 and s2 to the synthesizing unit 14. The read clocks CL1 and CL2 have the same period, and are shifted in timing by the audio arrival time difference Δt due to the distances d1 and d2 between the microphones M1 and M2 and the sound source SS. That is, the read clocks CL1 and CL2 are such that the audio signal input from the microphone corresponding to the shorter one of the distances d1 and d2 is input to the synthesizer 14 after being delayed by Δt.
Adjust CL2.

【0016】前記時間差Δtは時間差演算部15で計算
される。該時間差演算部15は操作パネル5から入力さ
れた距離情報d1,d2に基づき、前記式(f1)およ
び(f2)を使用して時間t1,t2を算出し、さら
に、時間t1およびt2の差すなわちΔtを算出する。
The time difference Δt is calculated by the time difference calculation section 15. The time difference calculation unit 15 calculates the times t1 and t2 using the formulas (f1) and (f2) based on the distance information d1 and d2 input from the operation panel 5, and further calculates the difference between the times t1 and t2. That is, Δt is calculated.

【0017】なお、音速cは気温、湿度、気圧等の大気
条件により変動するので、より正確に時間差Δtを算出
して音声を処理できるように、これら大気条件で音速c
を補正するのが望ましい。該大気条件は操作パネル5か
ら入力することができる。また、時間差演算部15に温
度計、湿度計、圧力計等を接続して、直接、自動的に大
気条件を読み取ることができるようにしてもよい。
Since the sound speed c varies depending on atmospheric conditions such as temperature, humidity, and atmospheric pressure, the sound speed c can be calculated under these atmospheric conditions so that the time difference Δt can be calculated more accurately and the sound can be processed.
Is desirably corrected. The atmospheric conditions can be input from the operation panel 5. Alternatively, a thermometer, a hygrometer, a pressure gauge, or the like may be connected to the time difference calculation unit 15 so that the atmospheric conditions can be directly and automatically read.

【0018】合成部14では音声データ格納部12から
読み出されたデジタル音声情報が合成され、合成された
情報はデータ変換部16に入力される。データ変換部1
6は、前記デジタル音声情報をスピーカ8やイヤホン
等、再生装置に適合した信号に変換して該スピーカ8に
出力する。該データ変換部16は出力インタフェース7
に含めることができる。なお、合成部14で合成された
情報は、直接再生装置で再生するのに限らず、テープレ
コーダ等の記録手段やROMに入力する構成をとること
ができる。上述の例では、距離情報を操作パネル5から
入力して音源SSを指定した。この例は、音源と観測位
置つまりマイクロフォンとの距離をあらかじめ測定でき
る場合に適している。しかし、あらかじめ距離を測定し
にくい状況、例えば移動する音源からの音声を抽出する
場合には、上述の例は最適ではない。
The synthesizing section 14 synthesizes digital audio information read from the audio data storage section 12 and inputs the synthesized information to the data conversion section 16. Data conversion unit 1
6 converts the digital audio information into a signal suitable for a reproducing apparatus such as a speaker 8 or an earphone and outputs the signal to the speaker 8. The data conversion unit 16 includes the output interface 7
Can be included. The information synthesized by the synthesizing unit 14 is not limited to being directly reproduced by the reproducing apparatus, but may be input to a recording means such as a tape recorder or a ROM. In the above-described example, the sound source SS is specified by inputting the distance information from the operation panel 5. This example is suitable when the distance between the sound source and the observation position, that is, the microphone can be measured in advance. However, in a situation where it is difficult to measure the distance in advance, for example, when extracting a sound from a moving sound source, the above example is not optimal.

【0019】そこで、次に説明する変形例では、移動す
る音源または距離が未知である音源からの音声を抽出す
ることができるようにした。図4は、変形例に係る集音
装置の構成を示す斜視図であり、同図(b)は要部平面
図である。図4において、ゴーグル17のレンズ部18
a,18bには視線感知センサ19a,19bが設けら
れ、かつ、該ゴーグル17のフレーム部20にはマイク
ロフォンM1,M2が装着されている。前記視線感知セ
ンサ19a,19bは、次のように構成できる。例え
ば、LEDとCCDとを設け、該LEDから出た光が、
該ゴーグル17を装着した人の眼球で反射するように構
成し、この反射画像を前記CCDでとらえられるように
する。そして、この反射画像をコンピュータ処理して眼
球の角度つまり視線を検出する。この視線感知センサ1
9a,19bによって両眼の視線を検出し、該視線つま
り視線角度α1,α2に基づいて、視線が向けられた音
源SSまでの距離dの演算が可能である。なお、視線感
知センサについては、1993年発行の日本写真学会誌
第56巻5号、369頁〜371頁「一眼レフカメラの
視線入力AFの開発」に記載されている。
Therefore, in a modified example described below, it is possible to extract a sound from a moving sound source or a sound source whose distance is unknown. FIG. 4 is a perspective view illustrating a configuration of a sound collection device according to a modification, and FIG. 4B is a plan view of a main part. In FIG. 4, the lens unit 18 of the goggle 17
Line-of-sight sensors 19a and 19b are provided on a and 18b, and microphones M1 and M2 are mounted on the frame section 20 of the goggles 17. The eye-gaze sensing sensors 19a and 19b can be configured as follows. For example, an LED and a CCD are provided, and light emitted from the LED is
The goggles 17 are configured to be reflected by an eyeball of a person wearing the goggles 17, and the reflected image can be captured by the CCD. The reflected image is processed by a computer to detect the angle of the eyeball, that is, the line of sight. This line-of-sight sensor 1
The line of sight of both eyes is detected by 9a and 19b, and the distance d to the sound source SS to which the line of sight is directed can be calculated based on the line of sight, that is, the line-of-sight angles α1 and α2. The line-of-sight sensor is described in “Development of Line-of-Sight Input AF of Single-Lens Reflex Camera” published in 1993 by the Photographic Society of Japan, Vol. 56, No. 5, pp. 369-371.

【0020】さらに、マイクロフォンM1,M2と前記
視線感知センサ19a,19bとの相対位置関係を予め
設定しておけば、この相対位置関係と前記距離dに基づ
いて、マイクロフォンM1,M2と音源SSとの距離d
1,d2を演算することができる。なお、距離d1,d
2が互いに異なるように、マイクロフォンM1,M2の
位置を決定する。例えば、視線感知センサ19aおよび
19bの中点の延長線上の点mからマイクロフォンM
1,M2までの距離L1,L2を異ならせるか、マイク
ロフォンM1,M2を音源SSの方向においてシフトし
て配置するかする。
Furthermore, if the relative positional relationship between the microphones M1 and M2 and the line-of-sight sensors 19a and 19b is set in advance, the microphones M1 and M2 and the sound source SS are determined based on the relative positional relationship and the distance d. Distance d
1, d2 can be calculated. The distances d1, d
The positions of the microphones M1 and M2 are determined so that 2 differs from each other. For example, from the point m on the extension of the midpoint of the line-of-sight sensors 19a and 19b, the microphone M
Either the distances L1 and L2 to M1 and M2 are different, or the microphones M1 and M2 are shifted and arranged in the direction of the sound source SS.

【0021】上述の構成および動作を図5の機能ブロッ
ク図を参照して説明する。同図において、図1と同符号
は同一または同等部分を示す。視線感知センサ19a,
19bで検出された視線つまり角度α1,α2は距離演
算部21に入力される。距離演算部21は、角度α1,
α2および視線感知センサ19aおよび19b間の距離
に基づいて距離d1,d2を算出する。算出された距離
d1,d2は時間差演算部15に供給される。あとは、
上述のとおり、時間差演算部15で時間差Δtを算出で
き、クロックCL1,CL2の出力タイミングが決定さ
れる。なお、時間差演算部15には、時間差Δtを算出
するのに必要な、前記距離L1,L2等、マイクロフォ
ンM1,M2と視線感知センサ19a,19bとの相対
位置関係を示すデータをあらかじめ設定しておく。
The above configuration and operation will be described with reference to the functional block diagram of FIG. In the figure, the same symbols as those in FIG. 1 indicate the same or equivalent parts. Eye-gaze sensing sensor 19a,
The line of sight detected at 19b, that is, the angles α1 and α2 are input to the distance calculation unit 21. The distance calculation unit 21 calculates the angle α1,
The distances d1 and d2 are calculated based on α2 and the distance between the eye-gaze sensing sensors 19a and 19b. The calculated distances d1 and d2 are supplied to the time difference calculation unit 15. later,
As described above, the time difference Δt can be calculated by the time difference calculation unit 15, and the output timing of the clocks CL1 and CL2 is determined. In the time difference calculating section 15, data indicating the relative positional relationship between the microphones M1 and M2 and the eye-gaze sensing sensors 19a and 19b, such as the distances L1 and L2, necessary for calculating the time difference Δt is set in advance. deep.

【0022】次に、前記時間差Δtの演算処理について
図6のフローチャートを参照して説明する。同図におい
て、ステップS1では、視線感知センサ19a,19b
で検出された角度α1,α2を読み込む。ステップS2
では、前記角度α1,α2と視線感知センサ19aおよ
び19b間の距離に基づいて音源SSまでの距離dを算
出する。ステップS3ではL1,L2を読み込む。ステ
ップS4では距離L1,L2と距離dとに基づいて距離
d1,d2を算出する。ステップS5では、前記式(f
1),(f2)で時間t1,t2を算出し、ステップS
6ではさらに時間差Δtつまり(t1−t2)の絶対値
を算出する。
Next, the processing for calculating the time difference Δt will be described with reference to the flowchart of FIG. In the figure, in step S1, the line-of-sight sensing sensors 19a, 19b
The angles α1 and α2 detected in step 2 are read. Step S2
Then, the distance d to the sound source SS is calculated based on the angles α1, α2 and the distance between the line-of-sight sensors 19a and 19b. In step S3, L1 and L2 are read. In step S4, distances d1 and d2 are calculated based on distances L1 and L2 and distance d. In step S5, the expression (f)
1) and (f2) are used to calculate times t1 and t2, and step S
In step 6, the time difference Δt, that is, the absolute value of (t1−t2) is calculated.

【0023】上述の変形例では、マイクロフォンと視線
感知センサとをゴーグルに装着したが、マイクロフォン
は必ずしも視線感知センサと一体的に設置しなくてもよ
い。要は、視線感知センサとマイクロフォンとの相対位
置関係があらかじめ決定されていればよい。例えば、動
物園の檻の予定箇所にマイクロフォンを配置するととも
に、該マイクロフォンとの位置関係を固定した観察位置
で視線感知センサを含むゴーグルを着用して動物を観察
するようにする。そうすれば、前記観察位置から目線で
追った対象動物が発した音声を強調してスピーカから出
力させることができる。なお、距離の測定は上述の視線
感知センサによるものに限らず、周知の距離測定手段で
実施することができる。
In the above-described modification, the microphone and the line-of-sight sensor are mounted on the goggles. However, the microphone does not necessarily have to be installed integrally with the line-of-sight sensor. The point is that the relative positional relationship between the eye-gaze sensing sensor and the microphone may be determined in advance. For example, a microphone is arranged at a predetermined location in a zoo cage, and an animal is observed by wearing goggles including a line-of-sight sensor at an observation position in which the positional relationship with the microphone is fixed. Then, the sound emitted from the target animal pursued from the observation position with the eyes can be emphasized and output from the speaker. The measurement of the distance is not limited to the above-described line-of-sight sensor, but can be performed by a well-known distance measuring unit.

【0024】また、本実施形態では、マイクロフォンを
2つ使用した場合を示したが、さらにマイクロフォンを
加えることにより、該3つ以上のマイクロフォンからの
距離で指定された音源からの音声を抽出することができ
る。すなわち、3つ以上のマイクロフォンを使用する場
合は、最も音源より遠い位置にあるマイクロフォンを基
準にして他のマイクロフォンとの時間差をそれぞれのマ
イクロフォン毎に算出し、それぞれの時間差に応じてタ
イミングをずらして音声データを音声データ格納部から
読み出し、合成部で合成する。
In this embodiment, the case where two microphones are used has been described. However, by adding more microphones, it is possible to extract a sound from a sound source specified by a distance from the three or more microphones. Can be. That is, when three or more microphones are used, the time difference from the other microphones is calculated for each microphone based on the microphone located farthest from the sound source, and the timing is shifted according to each time difference. The audio data is read from the audio data storage unit and synthesized by the synthesizing unit.

【0025】[0025]

【発明の効果】以上の説明から明らかなように、請求項
1ないし請求項5の発明によれば、複数のマイクロフォ
ンからの距離によって特定された音源で発生した音声を
強調して抽出することができる。特に、請求項4の発明
によれば、視線感知センサで感知された視線角度によっ
て該視線感知センサから音源までの距離が検出できる。
したがって、該視線感知センサとマイクロフォンの相対
位置関係をあらかじめ決定しておくことにより、人が目
で認識した音源からの音声を強調して抽出することがで
きる。
As is apparent from the above description, according to the first to fifth aspects of the present invention, it is possible to emphasize and extract a sound generated from a sound source specified by a distance from a plurality of microphones. it can. In particular, according to the invention of claim 4, the distance from the line-of-sight sensor to the sound source can be detected based on the line-of-sight angle detected by the line-of-sight sensor.
Therefore, by previously determining the relative positional relationship between the eye-gaze sensing sensor and the microphone, it is possible to emphasize and extract the sound from the sound source recognized by the human eye.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態に係る集音装置の要部機能
を示すブロック図である。
FIG. 1 is a block diagram illustrating main functions of a sound collection device according to an embodiment of the present invention.

【図2】 本発明の実施形態に係る集音装置のハード構
成を示すブロック図である。
FIG. 2 is a block diagram illustrating a hardware configuration of the sound collection device according to the embodiment of the present invention.

【図3】 本発明の実施形態の集音装置の概要を説明し
た図である。
FIG. 3 is a diagram illustrating an outline of a sound collection device according to an embodiment of the present invention.

【図4】 本発明の実施形態の変形例に係る集音装置の
距離測定装置を示す概要図である。
FIG. 4 is a schematic diagram showing a distance measuring device of a sound collecting device according to a modification of the embodiment of the present invention.

【図5】 変形例の要部機能ブロック図である。FIG. 5 is a functional block diagram of a main part of a modified example.

【図6】 集音装置の要部動作を示すフローチャートで
ある。
FIG. 6 is a flowchart showing an operation of a main part of the sound collection device.

【符号の説明】[Explanation of symbols]

1…演算装置、 5…操作パネル、 8…スピーカ、
12…音声データ格納部、 13…音声データ読出部、
14…合成部、 15…時間差演算部
1: arithmetic unit, 5: operation panel, 8: speaker,
12 audio data storage unit 13 audio data reading unit
14: synthesis unit, 15: time difference calculation unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−327097(JP,A) 特開 昭54−76128(JP,A) 特開 昭59−41995(JP,A) 特開 昭59−83496(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04R 1/20 - 1/40 H04R 3/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-9-327097 (JP, A) JP-A-54-76128 (JP, A) JP-A-59-41995 (JP, A) JP-A-59-1995 83496 (JP, A) (58) Field surveyed (Int. Cl. 7 , DB name) H04R 1/20-1/40 H04R 3/00

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 少なくとも2台のマイクロフォンと、 前記マイクロフォンで検出された音声データを格納す
る音声データ格納手段と、音源で発生された音声が該音源から最も遠く離れたマイ
クロフォンまで到達する時間を基準にして、この時間と
前記音源から各マイクロフォンまで音声が到達する時間
との 差を検出する時間差算出手段と、 前記音声データ格納手段に格納された各マイクロフォン
から音声データを前記時間差に対応した時間差で遅延
させて読み出す音声データ読出手段と、 前記読み出された音声データを合成する合成手段とを具
備したことを特徴とするスポット集音装置。
At least two microphones, audio data storage means for storing audio data detected by each of the microphones, and a microphone generated by a sound source at a farthest distance from the sound source
Based on the time to reach the crophone,
The time that the sound arrives from the sound source to each microphone
A time difference calculating means for detecting a difference between the voice data reading means for reading the voice data from the microphone is stored in the voice data storage means with a delay time difference corresponding to the time difference, the read out voice A spot sound collecting device, comprising: synthesizing means for synthesizing data.
【請求項2】 前記合成手段で合成された音声データを
再生する再生手段具備したことを特徴とする請求項1
記載のスポット集音装置。
2. A method according to claim 1, characterized by comprising a reproducing means for reproducing the audio data synthesized by said synthesizing means
The spot sound collector according to the above.
【請求項3】 前記音源から各マイクロフォンまでの距
離を外部から入力する入力手段を具備したことを特徴と
する請求項1又は2記載のスポット集音装置。
3. The spot sound collecting apparatus according to claim 1, further comprising an input unit for externally inputting a distance from the sound source to each of the microphones.
【請求項4】 前記入力手段が、 視線感知センサと、 前記視線感知センサで検出された視線角度に基づいて該
視線感知センサおよび音源間の距離を算出する距離算出
手段と、 前記視線感知センサおよび予め設定された各マイクロフ
ォンの相対位置に基づいて音源から各マイクロフォンま
での距離を算出する距離算出手段とからなることを特徴
とする請求項3記載のスポット集音装置。
4. The line-of-sight sensor, a distance calculator that calculates a distance between the line-of-sight sensor and a sound source based on a line-of-sight angle detected by the line-of-sight sensor, 4. The spot sound collecting apparatus according to claim 3 , further comprising distance calculating means for calculating a distance from the sound source to each microphone based on a preset relative position of each microphone.
【請求項5】 前記時間差算出手段で時間差を算出する
ために使用される音速情報を補正するための大気情報を
入力する入力手段を具備したことを特徴とする請求項1
ないし4のいずれかに記載のスポット集音装置。
5. An apparatus according to claim 1, further comprising input means for inputting atmospheric information for correcting sound velocity information used for calculating the time difference by said time difference calculating means.
5. The spot sound collecting device according to any one of items 1 to 4.
JP24255596A 1996-08-27 1996-08-27 Spot sound collector Expired - Fee Related JP3242006B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24255596A JP3242006B2 (en) 1996-08-27 1996-08-27 Spot sound collector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24255596A JP3242006B2 (en) 1996-08-27 1996-08-27 Spot sound collector

Publications (2)

Publication Number Publication Date
JPH1070786A JPH1070786A (en) 1998-03-10
JP3242006B2 true JP3242006B2 (en) 2001-12-25

Family

ID=17090845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24255596A Expired - Fee Related JP3242006B2 (en) 1996-08-27 1996-08-27 Spot sound collector

Country Status (1)

Country Link
JP (1) JP3242006B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102110908B (en) * 2010-12-20 2013-11-06 西安三元达海天天线有限公司 TD-LTE (Time Division-Long Term Evolution) indoor dual-polarized antenna

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011035472A (en) * 2009-07-29 2011-02-17 Chubu Electric Power Co Inc Image display device
JP6217930B2 (en) 2014-07-15 2017-10-25 パナソニックIpマネジメント株式会社 Sound speed correction system
JP2019054385A (en) * 2017-09-14 2019-04-04 カシオ計算機株式会社 Sound collecting device, hearing aid, and sound collecting device set

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102110908B (en) * 2010-12-20 2013-11-06 西安三元达海天天线有限公司 TD-LTE (Time Division-Long Term Evolution) indoor dual-polarized antenna

Also Published As

Publication number Publication date
JPH1070786A (en) 1998-03-10

Similar Documents

Publication Publication Date Title
Švec et al. Estimation of sound pressure levels of voiced speech from skin vibration of the neck
CN102474681B (en) Conversation detection device, hearing aid and conversation detection method
JP5597956B2 (en) Speech data synthesizer
US8456542B2 (en) Imaging apparatus that determines a band of sound and emphasizes the band in the sound
WO2000077537A1 (en) Method and apparatus for determining sound source
US10021505B2 (en) Control apparatus, measurement system, control method, and storage medium
JP3999689B2 (en) Sound source position acquisition system, sound source position acquisition method, sound reflection element for use in the sound source position acquisition system, and method of forming the sound reflection element
CN108769400A (en) A kind of method and device of locating recordings
US20230403504A1 (en) Sound recording method and related device
Llico et al. Real-time estimation of aerodynamic features for ambulatory voice biofeedback
JP3242006B2 (en) Spot sound collector
WO2020166324A1 (en) Information processing device and method, and program
PT1257146E (en) Method and system of sound processing
CN113014844A (en) Audio processing method and device, storage medium and electronic equipment
US20220390580A1 (en) Audio-based method for determining device distance
JP3716918B2 (en) Sound collection device, method and program, and recording medium
JP2002312796A (en) Main subject estimating device and its method and image pickup device and its system and method for controlling image pickup device and medium for providing control program
JP3531084B2 (en) Directional microphone device
JPS63262576A (en) Microphone apparatus
JPH10191498A (en) Sound signal processor
JP2022059096A (en) Noise canceling signal generation device, method, and program
JP3141497B2 (en) Sound field playback method
JPH05308553A (en) Sound recorder for video camera
US11039251B2 (en) Signal processing device, signal processing method, and program
JP2011215221A (en) Karaoke singer video and singing sound recording system

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees