JP5412470B2 - Position measurement system - Google Patents

Position measurement system Download PDF

Info

Publication number
JP5412470B2
JP5412470B2 JP2011119072A JP2011119072A JP5412470B2 JP 5412470 B2 JP5412470 B2 JP 5412470B2 JP 2011119072 A JP2011119072 A JP 2011119072A JP 2011119072 A JP2011119072 A JP 2011119072A JP 5412470 B2 JP5412470 B2 JP 5412470B2
Authority
JP
Japan
Prior art keywords
node
sound
nodes
sound source
tablet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011119072A
Other languages
Japanese (ja)
Other versions
JP2012247300A (en
Inventor
博 川口
雅彦 吉本
心平 祖田
智也 高木
慎太郎 和泉
Original Assignee
株式会社半導体理工学研究センター
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社半導体理工学研究センター filed Critical 株式会社半導体理工学研究センター
Priority to JP2011119072A priority Critical patent/JP5412470B2/en
Publication of JP2012247300A publication Critical patent/JP2012247300A/en
Application granted granted Critical
Publication of JP5412470B2 publication Critical patent/JP5412470B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、高音質な音声取得を目的とするマイクロホンアレイ・ネットワークシステムならびにマイクロホンアレイ・ネットワークシステムを用いた位置測定システムに関する。   The present invention relates to a microphone array / network system for obtaining high-quality sound and a position measurement system using the microphone array / network system.

従来、音声を利用するアプリケーションシステム(例えば、複数台のマイクロホンを接続するような音声会議システム、音声認識するロボットシステム、各種音声インタフェースを備えたシステム等)では、高音質な音声を利用するために、音源定位、音源分離、雑音除去、エコーキャンセル等の様々な音声処理を行っている。   Conventionally, in an application system using voice (for example, a voice conference system in which a plurality of microphones are connected, a voice recognition robot system, a system having various voice interfaces, etc.) Various sound processing such as sound source localization, sound source separation, noise removal, and echo cancellation are performed.

特に、高音質な音声取得を目的として、音源定位や音源分離を主な処理とするマイクロホンアレイが広く研究されている。ここで、音源定位とは音の到達時間差などから音源の方向・位置を特定することであり、また音源分離は音源定位の結果を利用して雑音となる音源を消去し特定方向にある特定音源の抽出を行うことである。   In particular, for the purpose of acquiring high-quality sound, a microphone array mainly used for sound source localization and sound source separation has been widely studied. Here, sound source localization is to specify the direction and position of the sound source from the difference in arrival time of the sound, and sound source separation is to use the result of sound source localization to eliminate the sound source that becomes noise and to specify a specific sound source in a specific direction Is to perform the extraction.

マイクロホンアレイを用いた音声処理は、通常、マイクロホン数が多いほど雑音処理などの音声処理性能が向上することが知られている。また、そのような音声処理では、音源の位置情報を用いる音源定位の手法が多く存在している(例えば、非特許文献1を参照。)。音源定位の結果が正確であるほど音声処理が有効に働くことになる。すなわち、マイクロホン数を増加して音源定位の高精度化と高音質のための雑音除去を同時に図ることが必要とされている。   It is known that sound processing using a microphone array usually improves sound processing performance such as noise processing as the number of microphones increases. In such audio processing, there are many sound source localization methods that use sound source position information (see, for example, Non-Patent Document 1). The more accurate the sound source localization result, the more effective the sound processing. That is, it is necessary to simultaneously increase the accuracy of sound source localization and remove noise for high sound quality by increasing the number of microphones.

従来の大規模マイクロホンアレイを用いた音源定位の場合、図10に示すように、音源の位置範囲を網目状に分割し、各区間に対して音源位置を確率的に求める。この計算には、全音声データをワークステーションなどの一箇所の音声処理サーバに収集し、全音声データを一括処理して音源の位置を推定していた(例えば、非特許文献2を参照。)。このような全音声データの一括処理の場合には、音声収集のためのマイクロホンと音声処理サーバ間の信号配線長、通信量や音声処理サーバでの演算量が膨大となっていた。配線長、通信量、音声処理サーバでの演算量の増大、また音声処理サーバ一箇所に多数のA/Dコンバータを配置できないという物理的な制限によって、マイクロホン数を増やせないという問題がある。また、信号配線長が長くなることによるノイズの発生の問題もある。そのため、高音質を追求するためのマイクロホン数の増加が困難であるという問題が生じていた。   In the case of sound source localization using a conventional large-scale microphone array, as shown in FIG. 10, the position range of the sound source is divided into a mesh shape, and the sound source position is obtained probabilistically for each section. In this calculation, all sound data is collected in one sound processing server such as a workstation, and all sound data is collectively processed to estimate the position of the sound source (see, for example, Non-Patent Document 2). . In such batch processing of all audio data, the signal wiring length between the microphone and the audio processing server for collecting audio, the communication amount, and the calculation amount in the audio processing server are enormous. There is a problem that the number of microphones cannot be increased due to an increase in wiring length, communication amount, computation amount in the voice processing server, and physical restrictions that a large number of A / D converters cannot be arranged in one place of the voice processing server. There is also a problem of noise generation due to a long signal wiring length. Therefore, there has been a problem that it is difficult to increase the number of microphones for pursuing high sound quality.

かかる問題を改善する方法として、複数のマイクロホンを小アレイに分割し、それを統合するマイクロホンアレイによる音声処理システムが知られている(例えば、非特許文献3を参照。)。   As a method for improving such a problem, a sound processing system using a microphone array that divides a plurality of microphones into small arrays and integrates them is known (see, for example, Non-Patent Document 3).

しかしながら、かかる音声処理システムの場合でも、小アレイで取得した全てのマイクロホンの音声データを、ネットワークを介して一箇所の音声サーバに統合することから、ネットワークの通信トラフィックの増加の問題がある。また、通信データ量や通信トラフィック量の増加に伴う音声処理の遅延が生じるという問題がある。   However, even in the case of such a voice processing system, voice data of all microphones acquired in a small array are integrated into one voice server via the network, so that there is a problem of increase in network communication traffic. In addition, there is a problem that voice processing delay occurs with an increase in communication data volume and communication traffic volume.

また、今後、ユビキタス・システムにおける収音やテレビ会議システムなどの要求に応えるためには、より多くのマイクロホンが必要となってくる(例えば、特許文献1を参照。)。しかしながら、上述の通り、現状のマイクロホンアレイのネットワークシステムでは、マイクロホンアレイで得られた音声データをそのままサーバに転送しているに過ぎない。マイクロホンアレイの各ノードが相互に音源の位置情報を交換して、システム全体の計算量の低減ならびにネットワークの通信量の低減を図るシステムは見当たらない。   In the future, more microphones will be required to meet demands for sound collection and video conference systems in ubiquitous systems (see, for example, Patent Document 1). However, as described above, in the current microphone array network system, the audio data obtained by the microphone array is merely transferred to the server as it is. There is no system that can reduce the calculation amount of the entire system and the communication amount of the network by exchanging the position information of the sound sources with each other in the microphone array.

従って、マイクロホンアレイのネットワークシステムの大規模化を想定し、システム全体の計算量の低減ならびにネットワークの通信量を抑えるようなシステムアーキテクチャーが重要となる。   Accordingly, assuming a large-scale microphone array network system, a system architecture that reduces the amount of calculation of the entire system and suppresses the amount of network communication is important.

上述したように、音声処理サーバにおける通信量と演算量を抑えながら、数多くのマイクロホンアレイを用いて音源定位精度を高め、雑音除去などの音声処理を有効に行わせることが求められている。   As described above, it is required to increase sound source localization accuracy by using a large number of microphone arrays and to effectively perform sound processing such as noise removal while suppressing the communication amount and calculation amount in the sound processing server.

また、昨今、音源を用いた位置測定システムが提案されている。例えば、特許文献2では、超音波タグとマイクロホンアレイとを用いて超音波タグを算定することが開示されている。さらに、特許文献3では、マイクロホンアレイを用いて収音を行うことが開示されている。   Recently, a position measurement system using a sound source has been proposed. For example, Patent Document 2 discloses calculating an ultrasonic tag using an ultrasonic tag and a microphone array. Furthermore, Patent Document 3 discloses that sound collection is performed using a microphone array.

特開2008−113164号公報JP 2008-113164 A 国際公開第2008/026463号パンフレットInternational Publication No. 2008/026463 Pamphlet 特開2008−048342号公報JP 2008-048342 A

R.O. Schmidt, "Multiple emitter location and signal parameter estimation", In Proceedings of the RADC Spectrum Estimation Workshop, pp.243-248, October 1979.R.O.Schmidt, "Multiple emitter location and signal parameter estimation", In Proceedings of the RADC Spectrum Estimation Workshop, pp.243-248, October 1979. E. Weinstein et al., "Loud: A 1020-node modular microphone array and beamformer for intelligent computing spaces", MIT, MIT/LCS Technical Memo MIT-LCS-TM-642, April 2004.E. Weinstein et al., "Loud: A 1020-node modular microphone array and beamformer for intelligent computing spaces", MIT, MIT / LCS Technical Memo MIT-LCS-TM-642, April 2004. A. Brutti et al., "Classification of Acoustic Maps to Determine Speaker Position and Orientation from a Distributed Microphone Network", In Proceedings of ICASSP, Vol. IV, pp. 493-496, April. 2007.A. Brutti et al., "Classification of Acoustic Maps to Determine Speaker Position and Orientation from a Distributed Microphone Network", In Proceedings of ICASSP, Vol. IV, pp. 493-496, April. 2007.

しかしながら、多くのモバイル端末に搭載されているGPSシステムやWiFiシステムの位置測定機能では、地図上のおおまかな位置を取得できても、数十cmといった近距離での端末間の位置関係を取得できないという問題点があった。   However, the position measurement function of GPS systems and WiFi systems installed in many mobile terminals cannot acquire the positional relationship between terminals at a short distance of several tens of centimeters, even if it can acquire a rough position on the map. There was a problem.

本発明の目的は以上の問題点を解決し、従来技術に比較して高精度で端末の位置を測定することができる位置測定システムを提供することにある。   An object of the present invention is to solve the above problems and to provide a position measurement system capable of measuring the position of a terminal with higher accuracy than in the prior art.

本発明に係る位置測定システムは、マイクロホンアレイを備えた複数のノードが相互にネットワークで接続されかつ時刻同期されたマイクロホンアレイ・ネットワークシステムを用いて、上記各ノードの位置を推定する制御部を備えた位置測定システムであって、
上記各ノードは、
複数のマイクロホンをアレイ状に配列して構成されたマイクロホンアレイと、
上記マイクロホンアレイで受信した、1つのノードからのサウンド信号に基づいて、上記サウンド信号の到来方向の角度を推定する音源推定処理部と、
上記サウンド信号の送信時刻と受信時刻との差分とサウンド信号の速度に基づいて、上記サウンド信号を送信したノードからの距離を推定する距離推定部と、
上記推定された到来方向の角度及び距離を他のノードに対してデータ通信で送受信するデータ通信部とを備え、
上記制御部は、上記推定された到来方向の角度及び距離に基づいて、上記各ノードの位置を推定して計算することを特徴とする。
A position measurement system according to the present invention includes a control unit that estimates a position of each node using a microphone array network system in which a plurality of nodes including a microphone array are connected to each other via a network and time-synchronized. A position measuring system,
Each of the above nodes
A microphone array configured by arranging a plurality of microphones in an array;
A sound source estimation processing unit that estimates the angle of the arrival direction of the sound signal based on the sound signal from one node received by the microphone array;
A distance estimation unit that estimates a distance from a node that has transmitted the sound signal, based on a difference between a transmission time and a reception time of the sound signal and a speed of the sound signal;
A data communication unit that transmits and receives the estimated angle and distance of the direction of arrival to other nodes by data communication,
The controller is configured to estimate and calculate the position of each node based on the estimated angle and distance of the arrival direction.

上記位置測定システムにおいて、上記制御部は、上記各ノードの位置に基づいて座標値を計算して表示し又は出力することを特徴とする。   In the position measurement system, the control unit calculates and displays or outputs a coordinate value based on the position of each node.

また、上記位置測定システムにおいて、上記制御部は、上記各ノードの位置を用いて所定のアプリケーションを実行することを特徴とする。   In the position measurement system, the control unit executes a predetermined application using the position of each node.

さらに、上記位置測定システムにおいて、上記各ノードは表示部を備え、上記制御部は、上記所定のアプリケーションにおいて、上記計算された各ノードの位置に基づいて、上記表示部上で上記各ノードに対する方向を対応させ、上記表示部上で所定のデータを送信すべきノードに向けてドラッグすることにより、当該送信すべきノードを指示し、当該指示されたノードに対して上記所定のデータを送信することを特徴とする。   Further, in the position measurement system, each of the nodes includes a display unit, and the control unit in the predetermined application, based on the calculated position of each node, the direction with respect to each node on the display unit And instructing the node to be transmitted by dragging it toward the node to which the predetermined data is to be transmitted on the display unit, and transmitting the predetermined data to the instructed node It is characterized by.

またさらに、上記位置測定システムにおいて、上記制御部は、上記各ノード、上記複数のノードのうちの1つのノード、もしくは、上記複数のノードとは別のサーバ装置に設けられたことを特徴とする。   Still further, in the position measurement system, the control unit is provided in each of the nodes, one of the plurality of nodes, or a server device different from the plurality of nodes. .

従って、本発明によれば、従来技術に比較して高精度で端末の位置を測定することができる位置測定システムを提供することができる。   Therefore, according to the present invention, it is possible to provide a position measurement system capable of measuring the position of the terminal with higher accuracy than in the prior art.

本発明の第1の実施形態に係る音源定位システムの構成を示す説明図である。It is explanatory drawing which shows the structure of the sound source localization system which concerns on the 1st Embodiment of this invention. 図1の音源定位システムにおける2次元の音源定位を説明する説明図である。It is explanatory drawing explaining the two-dimensional sound source localization in the sound source localization system of FIG. 図1の音源定位システムにおける3次元の音源定位を説明する説明図である。It is explanatory drawing explaining the three-dimensional sound source localization in the sound source localization system of FIG. 本発明の実施例1に係るマイクロホンアレイ・ネットワークシステムの構成を示す構成図である。1 is a configuration diagram showing a configuration of a microphone array network system according to Embodiment 1 of the present invention. 図4のマイクロホンアレイを備えたノードの構成を示す構成図である。It is a block diagram which shows the structure of the node provided with the microphone array of FIG. 図4のマイクロホンアレイ・ネットワークシステムの機能を示す機能図である。It is a functional diagram which shows the function of the microphone array network system of FIG. 図4のマイクロホンアレイ・ネットワークシステムにおける3次元の音源定位精度の実験を説明する説明図である。FIG. 5 is an explanatory diagram for explaining an experiment of three-dimensional sound source localization accuracy in the microphone array network system of FIG. 4. 図4のマイクロホンアレイ・ネットワークシステムにおける3次元の音源定位精度向上を示す測定結果を示すグラフである。6 is a graph showing measurement results showing improvement in three-dimensional sound source localization accuracy in the microphone array network system of FIG. 4. 本発明の実施例2に係るマイクロホンアレイ・ネットワークシステムの構成を示す構成図である。It is a block diagram which shows the structure of the microphone array network system which concerns on Example 2 of this invention. 従来技術に係る音源定位システムを説明する説明図である。It is explanatory drawing explaining the sound source localization system which concerns on a prior art. 本発明の第2の実施形態に係る位置測定システムで用いるノードの詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the node used with the position measurement system which concerns on the 2nd Embodiment of this invention. 図11の位置測定システムで用いるネットワークの構成を示すブロック図である。It is a block diagram which shows the structure of the network used with the position measuring system of FIG. 図12の位置測定システムで用いる線形補間付き時間同期を示すグラフである。It is a graph which shows the time synchronization with linear interpolation used with the position measurement system of FIG. 図12の位置測定システムにおける各タブレット間の信号伝送手順及び各タブレットで実行される各処理を示すタイミングチャートの第1の部分である。FIG. 13 is a first part of a timing chart showing a signal transmission procedure between each tablet and each process executed in each tablet in the position measurement system of FIG. 12. FIG. 図12の位置測定システムにおける各タブレット間の信号伝送手順及び各タブレットで実行される各処理を示すタイミングチャートの第2の部分である。13 is a second part of a timing chart showing a signal transmission procedure between each tablet and each process executed in each tablet in the position measurement system of FIG. 12. 図12の位置測定システムの各タブレットで測定された角度情報から各タブレット間の距離を測定する方法を示す平面図である。It is a top view which shows the method of measuring the distance between each tablet from the angle information measured with each tablet of the position measuring system of FIG. 図12の位置測定システムを用いたメッセージ交換システムの概念を示す平面図である。It is a top view which shows the concept of the message exchange system using the position measurement system of FIG. 図15のメッセージ交換システムの1つのアプリケーションを示すディスプレイの表示例である。It is a display example of a display showing one application of the message exchange system of FIG. 図12の位置測定システムを用いたホッケーゲームシステムの概念を示す平面図である。It is a top view which shows the concept of the hockey game system using the position measurement system of FIG. 図17のホッケーゲームシステムのサーバ装置の実行画面の表示例である。It is a display example of the execution screen of the server apparatus of the hockey game system of FIG. 図17のホッケーゲームシステムを実行しているときのタブレットの表示例である。18 is a display example of a tablet when the hockey game system of FIG. 17 is being executed.

以下、本発明に係る実施形態について図面を参照して説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In addition, in each following embodiment, the same code | symbol is attached | subjected about the same component.

(第1の実施形態)
図1は、本発明の音源定位の説明図を示している。図1に示すように、マイクロホンアレイを備えた6つのノードと1つの音声処理サーバ20がネットワーク10で接続されている。複数のマイクロホンをアレイ状に配列して構成されたマイクロホンアレイを備える6つのノードは、室内の四方の壁面に存在し、それぞれのノード内に存在する収音処理用のプロセッサで音源方向の推定を行い、その結果を音声処理サーバに統合することで音源の位置を特定する。各ノードでデータの処理を行うために、ネットワークの通信量が削減でき、ノード間で演算量が分散されるものである。
(First embodiment)
FIG. 1 shows an explanatory diagram of sound source localization according to the present invention. As shown in FIG. 1, six nodes having a microphone array and one voice processing server 20 are connected by a network 10. Six nodes having a microphone array configured by arranging a plurality of microphones in an array form are present on four wall surfaces in the room, and the sound source direction is estimated by the sound collection processor in each node. And the position of the sound source is specified by integrating the result into the voice processing server. Since each node processes data, the amount of network communication can be reduced, and the amount of computation is distributed among the nodes.

以下では、2次元の音源定位の場合と3次元の音源定位の場合に分けて詳細に説明する。先ず、本発明の2次元の音源定位方法について図2を参照しながら説明する。図2は2次元の音源定位方法を説明している。図2に示すように、ノード1〜ノード3は、それぞれのマイクロホンアレイから収音した収音信号から音源方向を推定する。各ノードは、各方向に対して、MUSIC法の応答強度を計算して、その最大値をとる方向を音源方向と推定している。図2では、ノード1がマイクロホンアレイの配列面の垂線方向(正面方向)を0°とし、−90°〜90°までの方向に対して、応答強度を計算し、θ1=−30°の方向を音源方向と推定する場合を示している。ノード2やノード3も同様に各方向に対して、応答強度を計算して、その最大値をとる方向を音源方向と推定する。   In the following, a detailed description will be given separately for two-dimensional sound source localization and three-dimensional sound source localization. First, the two-dimensional sound source localization method of the present invention will be described with reference to FIG. FIG. 2 illustrates a two-dimensional sound source localization method. As shown in FIG. 2, the nodes 1 to 3 estimate the sound source direction from the collected sound signals collected from the respective microphone arrays. Each node calculates the response intensity of the MUSIC method for each direction, and estimates the direction that takes the maximum value as the sound source direction. In FIG. 2, node 1 calculates the response intensity with respect to directions from −90 ° to 90 °, with the perpendicular direction (front direction) of the arrangement surface of the microphone array being 0 °, and the direction of θ1 = −30 ° Is assumed to be the sound source direction. Similarly, the node 2 and the node 3 also calculate the response intensity for each direction, and estimate the direction that takes the maximum value as the sound source direction.

そして、ノード1とノード2、或いは、ノード1とノード3というように、2つのノードの音源方向推定結果の交点に対して、重み付けを行っていく。ここで、重みは、各ノードのMUSIC法の最大応答強度に基づいて決定している(例えば2つのノードの最大応答強度の積とする)。図2では、重みのスケールを交点部分の丸印の径で表現している。
得られた複数の重みを示す丸印(位置とスケール)は音源位置候補となる。そして、得られた複数の音源位置候補の重心を求めることで音源位置を推定する。図2の場合、複数の音源位置候補の重心を求めるとは、複数の重みを示す丸印(位置とスケール)の重み付き重心を求めることである。
Then, weighting is performed on the intersection of the sound source direction estimation results of the two nodes, such as node 1 and node 2 or node 1 and node 3. Here, the weight is determined based on the maximum response intensity of the MUSIC method of each node (for example, the product of the maximum response intensity of two nodes). In FIG. 2, the weight scale is expressed by the diameter of the circle at the intersection.
The obtained circles (position and scale) indicating the plurality of weights are sound source position candidates. And a sound source position is estimated by calculating | requiring the gravity center of the obtained several sound source position candidates. In the case of FIG. 2, obtaining the centroids of a plurality of sound source position candidates means obtaining the weighted centroids of circles (positions and scales) indicating a plurality of weights.

次に、本発明の3次元の音源定位方法について図3を参照しながら説明する。図3は3次元の音源定位方法を説明している。図3に示すように、ノード1〜ノード3は、それぞれのマイクロホンアレイから収音した収音信号から音源方向を推定する。各ノードは、3次元方向に対して、MUSIC法の応答強度を計算して、その最大値をとる方向を音源方向と推定している。図3は、ノード1がマイクロホンアレイの配列面の垂線方向(正面方向)の回転座標系の方向に対して、応答強度を計算し、強度が大きな方向を音源方向と推定する場合を示している。ノード2やノード3も同様に各方向に対して、応答強度を計算して、その最大値をとる方向を音源方向と推定する。   Next, the three-dimensional sound source localization method of the present invention will be described with reference to FIG. FIG. 3 illustrates a three-dimensional sound source localization method. As shown in FIG. 3, the nodes 1 to 3 estimate the sound source direction from the collected sound signals collected from the respective microphone arrays. Each node calculates the response intensity of the MUSIC method with respect to the three-dimensional direction, and estimates the direction that takes the maximum value as the sound source direction. FIG. 3 shows a case where the node 1 calculates the response intensity with respect to the direction of the rotating coordinate system in the direction perpendicular to the arrangement surface of the microphone array (front direction), and estimates the direction with the higher intensity as the sound source direction. . Similarly, the node 2 and the node 3 also calculate the response intensity for each direction, and estimate the direction that takes the maximum value as the sound source direction.

そして、ノード1とノード2、或いは、ノード1とノード3というように、2つのノードの音源方向推定結果の交点に対して、重みを求めていくのであるが、3次元の場合には交点が得られないことが多い。そのため、2つのノードの音源方向推定結果の直線を最短で結ぶ線分上に仮想的に交点を求めることにしている。なお、重みは、2次元と同様に、各ノードのMUSIC法の最大応答強度に基づいて決定している(例えば2つのノードの最大応答強度の積とする)。図3では、図2と同様に、重みのスケールを交点部分の丸印の径で表現している。   Then, the node 1 and the node 2, or the node 1 and the node 3, such as the node 1 and the node 3, the weight is obtained for the intersection of the sound source direction estimation results of the two nodes. Often not available. Therefore, an intersection point is virtually obtained on a line segment that connects the straight lines of the sound source direction estimation results of the two nodes at the shortest. Note that the weight is determined based on the maximum response intensity of the MUSIC method of each node (for example, the product of the maximum response intensity of two nodes) as in the case of the two dimensions. In FIG. 3, as in FIG. 2, the weight scale is represented by the diameter of the circle at the intersection.

得られた複数の重みを示す丸印(位置とスケール)は音源位置候補となる。そして、得られた複数の音源位置候補の重心を求めることで音源位置を推定する。図3の場合、複数の音源位置候補の重心を求めるとは、複数の重みを示す丸印(位置とスケール)の重み付き重心を求めることである。   The obtained circles (position and scale) indicating the plurality of weights are sound source position candidates. And a sound source position is estimated by calculating | requiring the gravity center of the obtained several sound source position candidates. In the case of FIG. 3, obtaining the centroids of a plurality of sound source position candidates means obtaining the weighted centroids of circles (positions and scales) indicating a plurality of weights.

本発明の一実施形態について説明する。図4は、実施例1のマイクロホンアレイ・ネットワークシステムの構成図を示している。図4は、16個のマイクロホンがアレイ状に配列されたマイクロホンアレイ備えたノード(1a,1b,…,1n)と1つの音声処理サーバ20がネットワーク10で接続されたシステム構成を示している。それぞれのノードは、図5に示すように、16個のアレイ状に配列されたマイクロホン(m11,m12,…,m43,m44)の信号線が収音処理部2の入出力部(I/O部)3に接続されており、マイクロホンから収音された信号が収音処理部2のプロセッサ4に入力される。収音処理部2のプロセッサ4は、入力した収音信号を用いて、MUSIC法のアルゴリズムの処理を行って音源方向の推定を行う。   An embodiment of the present invention will be described. FIG. 4 is a configuration diagram of the microphone array network system according to the first embodiment. FIG. 4 shows a system configuration in which nodes (1 a, 1 b,..., 1 n) having microphone arrays in which 16 microphones are arranged in an array and one audio processing server 20 are connected via a network 10. As shown in FIG. 5, each node has signal lines of microphones (m11, m12,..., M43, m44) arranged in an array of 16 input / output units (I / O) of the sound collection processing unit 2. The signal collected from the microphone is input to the processor 4 of the sound collection processing unit 2. The processor 4 of the sound collection processing unit 2 performs an MUSIC algorithm process using the input sound collection signal to estimate the sound source direction.

そして、収音処理部2のプロセッサ4は、図4で示される音声処理サーバ20に対して、音源方向推定結果と最大応答強度を送信する。   Then, the processor 4 of the sound collection processing unit 2 transmits the sound source direction estimation result and the maximum response intensity to the sound processing server 20 shown in FIG.

このように、各ノード内で分散して音声定位を行い、その結果を音声処理サーバに統合し、上述の2次元定位や3次元定位の処理を行い、音源の位置を推定する。   As described above, the sound localization is performed in a distributed manner in each node, the result is integrated into the sound processing server, the above-described two-dimensional localization and three-dimensional localization processes are performed, and the position of the sound source is estimated.

図6は、実施例1のマイクロホンアレイ・ネットワークシステムの機能図を示している。   FIG. 6 is a functional diagram of the microphone array network system according to the first embodiment.

マイクロホンアレイを備えるノードは、マイクロホンアレイからの信号をA/D変換し(ステップS11)、各マイクロホンの収音信号を入力する(ステップS13)。各マイクロホンから収音した信号を用いて、ノートに搭載されているプロセッサが収音処理部として音源方向を推定する(ステップS15)。   The node having the microphone array performs A / D conversion on the signal from the microphone array (step S11), and inputs the sound pickup signal of each microphone (step S13). Using a signal collected from each microphone, a processor mounted on the notebook estimates a sound source direction as a sound collection processing unit (step S15).

収音処理部は、図6に示すグラフのように、マイクロホンアレイの正面(垂線方向)を0°とし、その左右−90°〜90°までの方向について、MUSIC法の応答強度を算出する。そして、応答強度が強い方向を音源方向と推定する。その収音処理部は、図示しないネットワークを介して音声処理サーバと接続されており、ノード内で音源方向推定結果(A)と最大応答強度(B)をデータ交換している(ステップS17)。音源方向推定結果(A)と最大応答強度(B)は、音声処理サーバに送られる。   As shown in the graph of FIG. 6, the sound collection processing unit calculates the response intensity of the MUSIC method with respect to directions from −90 ° to 90 ° left and right with the front (perpendicular direction) of the microphone array being 0 °. Then, the direction in which the response intensity is strong is estimated as the sound source direction. The sound collection processing unit is connected to the sound processing server via a network (not shown), and exchanges data of the sound source direction estimation result (A) and the maximum response intensity (B) within the node (step S17). The sound source direction estimation result (A) and the maximum response intensity (B) are sent to the voice processing server.

音声処理サーバでは、各ノードから送られてくるデータを受信する(ステップS21)。各ノードの最大応答強度から複数の音源位置候補を算出する(ステップS23)。そして、音源方向推定結果(A)と最大応答強度(B)に基づいて音源の位置を推定する(ステップS25)。   The voice processing server receives data sent from each node (step S21). A plurality of sound source position candidates are calculated from the maximum response intensity of each node (step S23). Then, the position of the sound source is estimated based on the sound source direction estimation result (A) and the maximum response intensity (B) (step S25).

以下では、3次元の音源定位精度を説明する。図7は3次元の音源定位精度の実験の様子を模式図で示したものである。床面積が12m×12mで高さが3mの部屋を想定している。16個のマイクロホンをアレイ状に配列したマイクロホンアレイを床面の四方に等間隔で並べた16のサブアレイを想定した(16サブアレイのケースA)。また、マイクロホンアレイを床面の四方に16個及び天井面の四方に16個のマイクロホンアレイを等間隔で並べ、更に、床面に等間隔に9つのマイクロホンアレイを配置した41のサブアレイを想定した(41サブアレイのケースB)。また、マイクロホンアレイを床面の四方に32個及び天井面の四方に32個のマイクロホンアレイを等間隔で並べ、更に、床面に等間隔に9つのマイクロホンアレイを配置した73のサブアレイを想定した(73サブアレイのケースC)。   Hereinafter, the three-dimensional sound source localization accuracy will be described. FIG. 7 is a schematic diagram showing the state of the experiment of the three-dimensional sound source localization accuracy. A room with a floor area of 12m x 12m and a height of 3m is assumed. An assumption was made of 16 subarrays in which 16 microphone arrays arranged in an array were arranged at equal intervals on all four sides of the floor (case A of 16 subarrays). In addition, forty-one subarrays are assumed in which 16 microphone arrays are arranged at equal intervals on four sides of the floor and 16 microphone arrays are arranged at equal intervals on the four sides of the ceiling, and nine microphone arrays are arranged at equal intervals on the floor. (41 subarray case B). In addition, 73 sub-arrays are assumed in which 32 microphone arrays are arranged at equal intervals on the floor surface and 32 microphone arrays are arranged at equal intervals on the floor surface, and nine microphone arrays are arranged on the floor surface at equal intervals. (73 subarray case C).

この3つのケースA〜Cを用いて、ノード数と各ノードの音源方向推定の誤差ばらつきを変更し、3次元位置推定の結果を比較した。3次元位置推定は、各ノードが通信相手をひとつランダムに選び、仮想交点を求めている。   Using these three cases A to C, the number of nodes and the error variation of the sound source direction estimation of each node were changed, and the results of the three-dimensional position estimation were compared. In the three-dimensional position estimation, each node randomly selects one communication partner and obtains a virtual intersection.

測定した結果を図8に示す。図8の横軸は、方向推定誤差のばらつき(標準偏差)を示しており、縦軸は、位置推定誤差を示している。図8の結果から、音源方向の推定精度が悪くても、ノード数を増やすことで、3次元位置推定の精度を向上させられることがわかる。   The measurement results are shown in FIG. The horizontal axis in FIG. 8 indicates the variation (standard deviation) in the direction estimation error, and the vertical axis indicates the position estimation error. From the results of FIG. 8, it can be seen that the accuracy of three-dimensional position estimation can be improved by increasing the number of nodes even if the estimation accuracy of the sound source direction is poor.

本発明の他の実施形態について説明する。図9は、実施例2のマイクロホンアレイ・ネットワークシステムの構成図を示している。図9は、16個のマイクロホンがアレイ状に配列されたマイクロホンアレイ備えたノード(1a,1b,1c)がネットワーク(11,12)で接続されたシステム構成を示している。実施例2のシステムの場合、実施例1のシステム構成と異なり、音声処理サーバが存在しない。また、それぞれのノードは、実施例1と同様に、図5に示すように、16個のアレイ状に配列されたマイクロホン(m11,m12,…,m43,m44)の信号線が収音処理部2のI/O部3に接続されており、マイクロホンから収音された信号が収音処理部2のプロセッサ4に入力される。収音処理部2のプロセッサ4は、入力した収音信号を用いて、MUSIC法のアルゴリズムの処理を行って音源方向の推定を行う。   Another embodiment of the present invention will be described. FIG. 9 is a configuration diagram of the microphone array network system according to the second embodiment. FIG. 9 shows a system configuration in which nodes (1a, 1b, 1c) each having a microphone array in which 16 microphones are arranged in an array are connected by a network (11, 12). In the case of the system of the second embodiment, unlike the system configuration of the first embodiment, there is no voice processing server. In addition, as in the first embodiment, each node has signal lines of microphones (m11, m12,..., M43, m44) arranged in an array of 16 as shown in FIG. The signal collected from the microphone is input to the processor 4 of the sound collection processing unit 2. The processor 4 of the sound collection processing unit 2 performs an MUSIC algorithm process using the input sound collection signal to estimate the sound source direction.

そして、収音処理部2のプロセッサ4は、隣接するノードや他のノードとの間で、音源方向推定結果をデータ交換する。収音処理部2のプロセッサ4は、自ノードを含む複数のノードの音源方向推定結果及び最大応答強度から、上述の2次元定位や3次元定位の処理を行い、音源の位置を推定する。   Then, the processor 4 of the sound collection processing unit 2 exchanges the sound source direction estimation results with the adjacent nodes and other nodes. The processor 4 of the sound collection processing unit 2 performs the above-described two-dimensional localization and three-dimensional localization processing from the sound source direction estimation results and the maximum response intensity of a plurality of nodes including its own node, and estimates the position of the sound source.

(第2の実施形態)
図11は本発明の第2の実施形態に係る位置測定システムで用いるノードの詳細構成を示すブロック図である。第2の実施形態に係る位置測定システムは、第1の実施形態に係る音源定位システムを用いて、従来技術に比較して高精度で端末の位置を測定することを特徴としている。本実施形態に係る位置測定システムは、例えばユビキタスネットワークシステム(UNS)を用いて構築され、例えば16個のマイクロホンを有する小規模なマイクロホンアレイ(センサノード)を所定のネットワークで結ぶことで、全体として大規模なマイクロホンアレイ音声処理システムを構築することにより、位置測定システムを構成する。ここで、センサノードにはそれぞれマイクロホンロプロセッサを搭載し、分散・協調し合って音声処理を行う。
(Second Embodiment)
FIG. 11 is a block diagram showing a detailed configuration of a node used in the position measurement system according to the second embodiment of the present invention. The position measurement system according to the second embodiment uses the sound source localization system according to the first embodiment to measure the position of the terminal with higher accuracy than in the prior art. The position measurement system according to the present embodiment is constructed by using, for example, a ubiquitous network system (UNS). For example, a small-scale microphone array (sensor node) having 16 microphones is connected by a predetermined network as a whole. A position measurement system is constructed by constructing a large-scale microphone array speech processing system. Here, each sensor node is equipped with a microphone processor, and performs voice processing in a distributed and cooperative manner.

センサノードのブロック図を図11に示す。各センサノードは、
(1)収音する複数のマイクロホン1に接続されたAD変換回路51と、
(2)AD変換回路51に接続され音声信号を検知するための発話推定処理部(Voice Activity Detection:以下、VAD処理部という。)52と、
(3)AD変換回路51によりAD変換された音声信号又はサウンド信号を含む音声信号等(ここで、サウンド信号は、例えば、500Hzなどの可聴周波数の信号もしくは超音波信号をいう。)を一時的に記憶するSRAM(Static Random Access Memory)54と、
(4)SRAM54から出力される音声信号等のディジタルデータに対して音源の位置を推定する音源定位(Sound Source Localization)処理を実行してその結果をSSS処理部56に出力するSSL処理部55と、
(5)SRAM54及びSSL処理部55から出力される音声信号等のディジタルデータに対して、特定の音源を抽出する音源分離(Sound Source Separation)処理を実行して、それらの処理の結果として得られたSNRの高い音声データを他のノードと、ネットワークインターフェース回路57を介して送受信することにより収集するSSS処理部56と、
(6)他の周囲センサノードNn(n=1,2,…,N)と接続され、音声データを送受信するデータ通信部を構成するネットワークインターフェース回路57とを備えて構成される。
A block diagram of the sensor node is shown in FIG. Each sensor node
(1) an AD conversion circuit 51 connected to a plurality of microphones 1 for collecting sound;
(2) an utterance estimation processing unit (Voice Activity Detection: hereinafter referred to as a VAD processing unit) 52 connected to the AD conversion circuit 51 for detecting a voice signal;
(3) A sound signal or the like including a sound signal or a sound signal AD-converted by the AD conversion circuit 51 (here, the sound signal refers to an audible frequency signal such as 500 Hz or an ultrasonic signal). SRAM (Static Random Access Memory) 54 to be stored in
(4) An SSL processing unit 55 that performs sound source localization processing for estimating the position of a sound source on digital data such as an audio signal output from the SRAM 54 and outputs the result to the SSS processing unit 56; ,
(5) A sound source separation process for extracting a specific sound source is performed on digital data such as an audio signal output from the SRAM 54 and the SSL processing unit 55, and obtained as a result of those processes. SSS processing unit 56 that collects voice data having a high SNR by transmitting and receiving to / from other nodes via network interface circuit 57,
(6) A network interface circuit 57 that is connected to other surrounding sensor nodes Nn (n = 1, 2,..., N) and constitutes a data communication unit that transmits and receives audio data.

各センサノードNn(n=0,1,2,…,N)は互いに同様の構成を有するが、ベースステーションのセンサノードN0では、上記音声データをネットワーク上で集約することで、さらにSNRが高められた音声データが得られる。なお、VAD処理部52及び電源管理部53は第1の実施形態の音源定位において用いるが、第2の実施形態の位置推定では、原則として用いない。また、後述する距離推定は、例えばSSL処理部55で実行される。   Each sensor node Nn (n = 0, 1, 2,..., N) has the same configuration, but the sensor data N0 of the base station further increases the SNR by aggregating the voice data on the network. Audio data is obtained. The VAD processing unit 52 and the power management unit 53 are used in the sound source localization of the first embodiment, but are not used in principle in the position estimation of the second embodiment. Further, distance estimation to be described later is executed by, for example, the SSL processing unit 55.

ここで、各センサノードでの処理の一例について以下に説明する。まず、初期段階では全てのセンサノードはスリープ状態にあり、ある程度距離の離れた幾つかのセンサノードは、例えば1つのセンサノードはサウンド信号を所定時間(例えば、3秒間)送信し、当該サウンド信号を検知したセンサノードは、多チャンネル入力による音源方向推定を開始する。同時にウエイクアップメッセージを周辺に存在する他のセンサノードにブロードキャストし、受け取ったセンサノードも即座に音源方向推定を開始する。各センサノードは、音源方向推定完了後、推定結果をベースステーション(サーバ装置に接続されたセンサノード)へ向けて送信する。ベースステーションは収集した各センサノードの方向推定結果を用いて音源位置の推定を行い、音源方向推定を行った全てのセンサノードに向けて結果をブロードキャストする。次に、各センサノードはベースステーションから受け取った位置推定結果を用いて音源分離を行う。音源分離も音源定位と同様に、センサノード内とセンサノード間の2段階に分けて実行される。各センサノードで得られた音声データは、再びネットワークを介してベースステーションへ集約される。最終的に得られたSNRの高い音声信号はベースステーションからサーバ装置に転送され、サーバ装置上で所定のアプリケーションに用いられる。   Here, an example of processing in each sensor node will be described below. First, all sensor nodes are in a sleep state at an initial stage, and several sensor nodes that are separated by a certain distance, for example, one sensor node transmits a sound signal for a predetermined time (for example, 3 seconds), and the sound signal The sensor node that detects the sound source starts to estimate the sound source direction by multi-channel input. At the same time, a wake-up message is broadcast to other sensor nodes existing in the vicinity, and the received sensor node immediately starts sound source direction estimation. After completing the sound source direction estimation, each sensor node transmits the estimation result to the base station (the sensor node connected to the server device). The base station estimates the sound source position using the collected direction estimation results of each sensor node, and broadcasts the results to all sensor nodes that have performed sound source direction estimation. Next, each sensor node performs sound source separation using the position estimation result received from the base station. Similar to the sound source localization, sound source separation is executed in two stages within the sensor node and between the sensor nodes. The voice data obtained at each sensor node is again aggregated to the base station via the network. The finally obtained audio signal having a high SNR is transferred from the base station to the server device and used for a predetermined application on the server device.

図12は図11の位置測定システムで用いるネットワークの構成(具体例)を示すブロック図であり、図13は図12の位置測定システムで用いる線形補間付き時間同期を示すグラフである。   12 is a block diagram showing a network configuration (specific example) used in the position measurement system of FIG. 11, and FIG. 13 is a graph showing time synchronization with linear interpolation used in the position measurement system of FIG.

図12において、サーバ装置SVを含むセンサノードN0〜N2間は例えばUTPケーブル60で接続され、10BASE−Tのイーサネット(登録商標)を用いて通信を行う。本実施例では、各センサノードN0〜N2は直線トポロジーで接続され、そのうち1つのセンサノードN0がベースステーションとして動作して、例えばパーソナルコンピュータにてなるサーバ装置SVに接続されている。当該通信システムのデータリンク層には低消費電力化のために公知の低電力リスニング法(Low Power Listening)を使用し、ネットワーク層における経路構築には公知のタイニー・ディフュージョン法(Tiny Diffusion)を用いる。   In FIG. 12, the sensor nodes N0 to N2 including the server device SV are connected by, for example, a UTP cable 60 and communicate using Ethernet (registered trademark) of 10BASE-T. In this embodiment, the sensor nodes N0 to N2 are connected in a straight line topology, and one of the sensor nodes N0 operates as a base station and is connected to a server device SV formed of, for example, a personal computer. For the data link layer of the communication system, a known low power listening method (Low Power Listening) is used to reduce power consumption, and a known tiny diffusion method (Tiny Diffusion) is used for path construction in the network layer. .

本実施例において、センサノードN0〜N2間で音声データの集約を行うためには、ネットワーク上の全てのセンサノードで時刻(タイマーの値)を同期する必要がある。本実施例では、公知のフラディングタイム同期プロトコル(Flooding Time Synchronization Protocol(FTSP))に線形補間を加えた同期手法を用いる。FTSPは一方向の簡略な通信のみによって高精度の同期を実現するものである。FTSPによる同期の精度は隣接センサノード間で1マイクロ秒以下だが、各センサノードが持つ水晶発振器にはばらつきがあり、図13のように同期処理後は時間と共に時刻ずれが生じてしまう。このずれは1秒間で数マイクロ秒から数十マイクロ秒であり、これでは音源分離の性能を低下させてしまうおそれがある。   In this embodiment, in order to collect voice data among the sensor nodes N0 to N2, it is necessary to synchronize the time (timer value) in all the sensor nodes on the network. In this embodiment, a synchronization method is used in which linear interpolation is added to a known flooding time synchronization protocol (FTSP). FTSP realizes highly accurate synchronization only by simple communication in one direction. The accuracy of synchronization by FTSP is 1 microsecond or less between adjacent sensor nodes, but the crystal oscillators of each sensor node vary, and as shown in FIG. 13, a time shift occurs with time after synchronization processing. This shift is from several microseconds to several tens of microseconds per second, and this may reduce the performance of sound source separation.

そこで、提案する本実施例のシステムでは、FTSPによる時刻同期時にセンサノード間の時刻ずれを記憶し、線形補間によってタイマの進み方を調整する。1度目の同期時の受信タイムスタンプを、2度目の同期時のタイムスタンプを、受信側のタイマ値をとすると、の期間にだけのタイマの進み方を調節することで、発振周波数のずれを補正することができる。これにより、同期完了後の時刻ずれを1秒間で0.17マイクロ秒以内に抑えることができる。FTSPによる時刻同期が1分に1度であったとしても、線形補間を行うことによりセンサノード間の時刻ずれは、10マイクロ秒以内に抑えられ、音源分離の性能を維持することが可能となる。   Therefore, in the proposed system of this embodiment, the time lag between the sensor nodes is stored at the time synchronization by FTSP, and the way of the timer is adjusted by linear interpolation. If the reception time stamp at the first synchronization is the time stamp at the second synchronization, and the timer value on the receiving side is taken, the deviation of the oscillation frequency can be reduced by adjusting how the timer advances only during this period. It can be corrected. Thereby, the time lag after the completion of synchronization can be suppressed within 0.17 microseconds in one second. Even if the time synchronization by FTSP is once per minute, by performing linear interpolation, the time lag between sensor nodes can be suppressed within 10 microseconds, and the performance of sound source separation can be maintained. .

各センサノードにおいて相対時刻(例えば、最初のセンサノードがオンされた時刻を0として経過時間を相対時刻として定義する。)又は絶対時刻(例えば、暦の日時分秒を時刻とする。)を記憶しておいて、各センサノード間で時刻同期を上述の方法で行う。この時刻同期は、後述するようにセンサノード間の正確な距離を測定するために用いる。   Relative time (for example, the elapsed time is defined as relative time with the time when the first sensor node was turned on is defined as 0) or absolute time (for example, calendar date / time / minute / second as time) is stored in each sensor node. In addition, time synchronization is performed between the sensor nodes by the method described above. This time synchronization is used to measure an accurate distance between sensor nodes as described later.

図14A及び図14Bは、図12の位置測定システムにおける各タブレットT1〜T4間の信号伝送手順及び各タブレットT1〜T4で実行される各処理を示すタイミングチャートである。ここで、例えば図11の構成を有する各タブレットT1〜T4は上記センサノードを備えて構成される。以下の説明では、タブレットT1をマスターとし、タブレットT2〜T4をスレーブとした場合の一例について説明するが、タブレットの数や、マスターはいずれのタブレットを使用してもよい。また、サウンド信号は可聴音波又は可聴域の周波数を越える超音波などであってもよい。ここで、サウンド信号は例えばAD変換回路51はDA変換回路も備えてSSL処理部55の指示に応答して1つのマイクロホン1から、例えば無指向性サウンド信号を発生し、もしくは、超音波発生素子を備えてSSL処理部55の指示に応答して超音波の無指向性サウンド信号を発生してもよい。さらに、図14A及び図14BにおいてSSS処理は実行しなくてもよい。   14A and 14B are timing charts showing a signal transmission procedure between the tablets T1 to T4 and processes executed by the tablets T1 to T4 in the position measurement system of FIG. Here, for example, each tablet T1 to T4 having the configuration of FIG. 11 is configured to include the sensor node. In the following description, an example in which the tablet T1 is a master and the tablets T2 to T4 are slaves will be described, but the number of tablets and the master may use any tablet. The sound signal may be an audible sound wave or an ultrasonic wave exceeding the frequency in the audible range. Here, the sound signal includes, for example, an AD conversion circuit 51 and a DA conversion circuit, and generates, for example, an omnidirectional sound signal from one microphone 1 in response to an instruction from the SSL processing unit 55, or an ultrasonic generation element. And an ultrasonic omnidirectional sound signal may be generated in response to an instruction from the SSL processing unit 55. Furthermore, the SSS process may not be executed in FIGS. 14A and 14B.

図14Aにおいて、まず、ステップS31では、タブレットT1は、タブレットT2〜T4に対して、「サウンド信号をマイクロホン1で受信する準備を行いかつサウンド信号に応答してSSL処理を実行することを指示するSSL指示信号」を送信した後、所定時間後、サウンド信号を例えば3秒間などの所定時間送信する。SSL指示信号には、サウンド信号の送信時刻情報が含まれており、各タブレットT2〜T4は、サウンド信号を受信した時刻と、上記送信時刻情報の差分、すなわち、サウンド信号の伝送時間を計算し、公知の音波又は超音波の速度に上記計算された伝送時間を乗算することにより、タブレットT1と自分のタブレットとの間の距離を計算して内蔵メモリに記憶する。また、各タブレットT2〜T4は、受信したサウンド信号に基づいて、第1実施形態で詳細説明したMUSIC法を用いて音源定位の処理を行うことによりサウンド信号の到来方向を推定計算して内蔵メモリに記憶する。すなわち、各タブレットT2〜T4のSSL処理では、タブレットT1から自分のタブレットまでの距離と、タブレットT1に対する角度を推定計算して記憶する。   14A, first, in step S31, the tablet T1 instructs the tablets T2 to T4 to “prepare to receive the sound signal with the microphone 1 and execute the SSL process in response to the sound signal. After transmitting the “SSL instruction signal”, a sound signal is transmitted for a predetermined time such as 3 seconds after a predetermined time. The SSL instruction signal includes sound signal transmission time information, and each tablet T2 to T4 calculates the difference between the time when the sound signal is received and the transmission time information, that is, the transmission time of the sound signal. The distance between the tablet T1 and its own tablet is calculated and stored in the built-in memory by multiplying the speed of the known sound wave or ultrasonic wave by the calculated transmission time. Each tablet T2 to T4 estimates the direction of arrival of the sound signal by performing sound source localization processing using the MUSIC method described in detail in the first embodiment based on the received sound signal, and calculates the built-in memory. To remember. That is, in the SSL processing of each tablet T2 to T4, the distance from the tablet T1 to its own tablet and the angle with respect to the tablet T1 are estimated and stored.

次いで、ステップS32では、タブレットT1は、タブレットT3,T4に対して、「マイクロホン1で受信する準備を行いかつサウンド信号に応答してSSL処理を実行することを指示するSSL指示信号」を送信した後、所定時間後、タブレットT2に対して、サウンド信号を発生することを指示するサウンド発生信号を送信する。ここで、タブレットT1もサウンド信号の待機状態となる。タブレットT2は、サウンド発生信号に応答して、サウンド信号を発生してタブレットT1,T3,T4に送信する。各タブレットT1,T3,T4は、受信したサウンド信号に基づいて、第1実施形態で詳細説明したMUSIC法を用いて音源定位の処理を行うことによりサウンド信号の到来方向を推定計算して内蔵メモリに記憶する。すなわち、各タブレットT1,T3,T4のSSL処理では、タブレットT2に対する角度を推定計算して記憶する。   Next, in step S32, the tablet T1 transmits, to the tablets T3 and T4, an “SSL instruction signal for preparing to receive with the microphone 1 and instructing to execute an SSL process in response to the sound signal”. Then, after a predetermined time, a sound generation signal instructing generation of a sound signal is transmitted to the tablet T2. Here, the tablet T1 also enters a sound signal standby state. In response to the sound generation signal, the tablet T2 generates a sound signal and transmits it to the tablets T1, T3, and T4. Each tablet T1, T3, T4 estimates the direction of arrival of the sound signal by performing sound source localization processing using the MUSIC method described in detail in the first embodiment based on the received sound signal, and calculates the built-in memory. To remember. That is, in the SSL process of each tablet T1, T3, T4, an angle with respect to the tablet T2 is estimated and stored.

さらに、ステップS33では、タブレットT1は、タブレットT2,T4に対して、「マイクロホン1で受信する準備を行いかつサウンド信号に応答してSSL処理を実行することを指示するSSL指示信号」を送信した後、所定時間後、タブレットT3に対して、サウンド信号を発生することを指示するサウンド発生信号を送信する。ここで、タブレットT1もサウンド信号の待機状態となる。タブレットT3は、サウンド発生信号に応答して、サウンド信号を発生してタブレットT1,T2,T4に送信する。各タブレットT1,T2,T4は、受信したサウンド信号に基づいて、第1実施形態で詳細説明したMUSIC法を用いて音源定位の処理を行うことによりサウンド信号の到来方向を推定計算して内蔵メモリに記憶する。すなわち、各タブレットT1,T2,T4のSSL処理では、タブレットT3に対する角度を推定計算して記憶する。   Further, in step S33, the tablet T1 transmits to the tablets T2 and T4 “SSL instruction signal for preparing to receive by the microphone 1 and instructing to execute SSL processing in response to the sound signal”. Then, after a predetermined time, a sound generation signal instructing to generate a sound signal is transmitted to the tablet T3. Here, the tablet T1 also enters a sound signal standby state. In response to the sound generation signal, the tablet T3 generates a sound signal and transmits it to the tablets T1, T2, and T4. Each tablet T1, T2, T4 estimates the direction of arrival of the sound signal by performing sound source localization processing using the MUSIC method described in detail in the first embodiment based on the received sound signal, and calculates the arrival direction of the sound signal. To remember. That is, in the SSL process of each tablet T1, T2, T4, the angle with respect to the tablet T3 is estimated and stored.

またさらに、ステップS34では、タブレットT1は、タブレットT2,T3に対して、「マイクロホン1で受信する準備を行いかつサウンド信号に応答してSSL処理を実行することを指示するSSL指示信号」を送信した後、所定時間後、タブレットT4に対して、サウンド信号を発生することを指示するサウンド発生信号を送信する。ここで、タブレットT1もサウンド信号の待機状態となる。タブレットT4は、サウンド発生信号に応答して、サウンド信号を発生してタブレットT1,T2,T3に送信する。各タブレットT1,T2,T3は、受信したサウンド信号に基づいて、第1実施形態で詳細説明したMUSIC法を用いて音源定位の処理を行うことによりサウンド信号の到来方向を推定計算して内蔵メモリに記憶する。すなわち、各タブレットT1,T2,T3のSSL処理では、タブレットT4に対する角度を推定計算して記憶する。   Still further, in step S34, the tablet T1 transmits to the tablets T2 and T3 "SSL instruction signal for preparing to receive with the microphone 1 and instructing to execute the SSL process in response to the sound signal". Then, after a predetermined time, a sound generation signal instructing generation of a sound signal is transmitted to the tablet T4. Here, the tablet T1 also enters a sound signal standby state. In response to the sound generation signal, the tablet T4 generates a sound signal and transmits it to the tablets T1, T2, T3. Each tablet T1, T2, T3 estimates the direction of arrival of the sound signal by performing sound source localization processing using the MUSIC method described in detail in the first embodiment on the basis of the received sound signal, and calculates the built-in memory. To remember. That is, in the SSL processing of each tablet T1, T2, T3, the angle with respect to the tablet T4 is estimated and stored.

次いで、データ通信を行うステップS35では、タブレットT1はタブレットT2に対して情報返信指示信号を送信する。これに応答して、タブレットT2は、ステップS31で計算されたタブレットT1とT2間の距離と、ステップS31〜S34で計算された、タブレットT2から各タブレットT1,T3,T4を見たときの角度とを含む情報返信信号をタブレットT1に返信する。また、タブレットT1はタブレットT3に対して情報返信指示信号を送信する。これに応答して、タブレットT3は、ステップS31で計算されたタブレットT1とT3間の距離と、ステップS31〜S34で計算された、タブレットT3から各タブレットT1,T2,T4を見たときの角度とを含む情報返信信号をタブレットT1に返信する。さらに、タブレットT1はタブレットT4に対して情報返信指示信号を送信する。これに応答して、タブレットT4は、ステップS31で計算されたタブレットT1とT4間の距離と、ステップS31〜S34で計算された、タブレットT4から各タブレットT1,T2,T3を見たときの角度とを含む情報返信信号をタブレットT1に返信する。   Next, in step S35 for performing data communication, the tablet T1 transmits an information return instruction signal to the tablet T2. In response to this, the tablet T2 calculates the distance between the tablets T1 and T2 calculated in step S31 and the angles when the tablets T1, T3, and T4 are viewed from the tablet T2 calculated in steps S31 to S34. An information reply signal including the above is returned to the tablet T1. The tablet T1 transmits an information return instruction signal to the tablet T3. In response to this, the tablet T3 calculates the distance between the tablets T1 and T3 calculated in step S31 and the angles when the tablets T1, T2, and T4 are viewed from the tablet T3 calculated in steps S31 to S34. An information reply signal including the above is returned to the tablet T1. Furthermore, the tablet T1 transmits an information return instruction signal to the tablet T4. In response to this, the tablet T4 calculates the distance between the tablets T1 and T4 calculated in step S31 and the angles when the tablets T1, T2, and T3 are viewed from the tablet T4 calculated in steps S31 to S34. An information reply signal including the above is returned to the tablet T1.

タブレットT1のSSL全体処理においては、以上のように収集された情報に基づいて、タブレットT1は、図15を参照して説明するように以下のようにして各タブレット間の距離を計算し、また、各タブレットT1〜T4での他のタブレットを見た角度情報に基づいて、例えば、タブレットT1(図15のA)をXY座標の原点としたときの、他のタブレットT2〜T4のXY座標を公知の三角関数の定義式を用いて計算することにより、
すべてのタブレットT1〜T4の座標値を求めることができる。当該座標値は、ディスプレイに表示してもいいし、プリンタに出力して印字してもよい。また、上記座標値を用いて、例えば詳細後述する所定のアプリケーションを実行してもよい。
In the entire SSL processing of the tablet T1, based on the information collected as described above, the tablet T1 calculates the distance between the tablets as described below with reference to FIG. Based on the angle information of the other tablets T1 to T4 viewed from other tablets, for example, the XY coordinates of the other tablets T2 to T4 when the tablet T1 (A in FIG. 15) is the origin of the XY coordinates. By calculating using the well-known trigonometric function formula,
The coordinate values of all the tablets T1 to T4 can be obtained. The coordinate value may be displayed on a display or output to a printer for printing. Further, for example, a predetermined application described in detail later may be executed using the coordinate value.

なお、タブレットT1のSSL全体処理については、マスターであるタブレットT1のみが行ってもよいし、すべてのタブレットT1〜T4で行ってもよい。すなわち、少なくとも1つのタブレット又はサーバ装置(例えば、図12のSV)が実行すればよい。また、上記SSL処理及び上記SSL全体処理は、制御部である例えばSSL処理部55により実行される。   In addition, about the SSL whole process of tablet T1, only the tablet T1 which is a master may perform, and it may carry out with all the tablets T1-T4. That is, at least one tablet or server device (for example, SV in FIG. 12) may be executed. The SSL process and the SSL overall process are executed by the control unit, for example, the SSL processing unit 55.

図15は図12の位置測定システムの各タブレットT1〜T4(図15におけるA,B,C,Dに対応する。)で測定された角度情報から各タブレット間の距離を測定する方法を示す平面図である。サーバ装置は、全てのタブレットが角度情報を取得した後、全員分の距離情報を計算する。距離情報の計算では、図15に示すように、12個の角度の値とどれか1辺の長さを用いて、正弦定理により全ての辺の長さを求める。ABの長さをdとすると、ACの長さは次式で求められる。   15 is a plan view showing a method for measuring the distance between the tablets from the angle information measured by the tablets T1 to T4 (corresponding to A, B, C, and D in FIG. 15) of the position measurement system of FIG. FIG. After all the tablets have acquired the angle information, the server device calculates distance information for everyone. In the calculation of distance information, as shown in FIG. 15, the lengths of all sides are obtained by the sine theorem using the values of 12 angles and the length of any one side. When the length of AB is d, the length of AC is obtained by the following equation.

Figure 0005412470
Figure 0005412470

他の辺の長さも同様に、12個の角度と上記長さdを用いて求めることができる。各センサノードが上述の時刻同期を行うことができれば、上記の計算法を用いずに、各センサノードが発音開始時間と到達時間の差から距離を求めることができる。図15のノード数を4としたが、本発明はこれに限らず、ノード数を2以上でノード数に関わらずノード間距離を求めることができる。   Similarly, the lengths of the other sides can be obtained using 12 angles and the length d. If each sensor node can perform the above-described time synchronization, each sensor node can obtain the distance from the difference between the sound generation start time and the arrival time without using the above calculation method. Although the number of nodes in FIG. 15 is four, the present invention is not limited to this, and the distance between nodes can be obtained regardless of the number of nodes when the number of nodes is two or more.

以上の第2の実施形態では、2次元の位置を推定したが、本発明はこれに限らず、同様の数式を用いて3次元の位置を推定してもよい。   In the above second embodiment, the two-dimensional position is estimated, but the present invention is not limited to this, and the three-dimensional position may be estimated using a similar mathematical expression.

さらに、センサノードの移動端末への実装について以下に説明する。当該ネットワークシステムの実用化に際しては、センサノードを壁や天井に固定して使用するだけでなく、ロボットのような移動する端末に実装することも考えられる。被認識者の位置が推定できれば、より解像度な画像の収集や高精度な音声認識のために、ロボットを被認識者に近づけるといった操作が可能となる。また、近年急速に普及が進んでいるスマートフォン等のモバイル端末は、GPS機能を用いて自身の現在位置を取得することができるが、近距離での端末同士の位置関係を取得することは難しい。しかし、当該ネットワークシステムのセンサノードをモバイル端末に実装すれば、端末から音声を発して互いを音源定位することで、GPS機能等では判別できない近距離における端末同士の位置関係の取得が可能となる。本実施形態では、端末同士の位置関係を利用するアプリケーションとして、メッセージ交換システムと多人数ホッケーゲームシステムの2種類を、プログラミング言語javaを用いて実装した。   Further, the mounting of the sensor node on the mobile terminal will be described below. When the network system is put to practical use, it is conceivable that the sensor node is mounted not only on a wall or ceiling but also on a moving terminal such as a robot. If the position of the person to be recognized can be estimated, an operation of bringing the robot closer to the person to be recognized can be performed in order to collect images with higher resolution and to perform highly accurate speech recognition. In addition, mobile terminals such as smartphones that have been rapidly spreading in recent years can acquire their current positions using the GPS function, but it is difficult to acquire the positional relationship between terminals at a short distance. However, if the sensor node of the network system is mounted on a mobile terminal, it is possible to acquire the positional relationship between the terminals at a short distance that cannot be determined by the GPS function or the like by emitting sound from the terminals and locating each other as a sound source. . In the present embodiment, two types of applications, that is, a message exchange system and a multi-person hockey game system, are implemented using the programming language Java as applications that use the positional relationship between terminals.

本実施例では、アプリケーションを実行するタブレットパーソナルコンピュータと、プロトタイプセンサノードとを接続した。タブレットパーソナルコンピュータのOSとしては汎用のOSが搭載されており、2か所のUSB2.0ポートやIEEE802.1b/g/n準拠の無線LAN機能を有して無線ネットワークを構成する。このタブレットパーソナルコンピュータの4辺に、プロトタイプセンサノードのマイクロホンを5cm間隔で配置し、センサノード(FPGAで構成される)では音源定位モジュールが稼動しており、定位結果をタブレットパーソナルコンピュータに出力するように構成した。本実施例における位置推定精度は数cm程度であり、従来技術に比較して大幅に高精度になる。   In this embodiment, a tablet personal computer that executes an application and a prototype sensor node are connected. A general-purpose OS is installed as the OS of the tablet personal computer, and a wireless network is configured with two USB 2.0 ports and a wireless LAN function conforming to IEEE 802.1b / g / n. Microphones of prototype sensor nodes are arranged at intervals of 5 cm on the four sides of the tablet personal computer, and a sound source localization module is operated at the sensor node (configured by FPGA) so that the localization result is output to the tablet personal computer. Configured. The position estimation accuracy in this embodiment is about several centimeters, which is significantly higher than that of the prior art.

図16は図12の位置測定システムを用いたメッセージ交換システムの概念を示す平面図であり、図17は図15のメッセージ交換システムの1つのアプリケーションを示すディスプレイの表示例である。   16 is a plan view showing a concept of a message exchange system using the position measurement system of FIG. 12, and FIG. 17 is a display example of a display showing one application of the message exchange system of FIG.

近くにいる相手とモバイル端末上でメッセージのやりとりを行う場合、メールやインスタントメッセンジャーでは、予めアカウントを取得してメールアドレス等で毎回相手を指定しなければならない。本実施例では、そうした煩雑な作業を行わず、「どの角度に誰がいるか」といった相手の角度情報を用いて、直感的にメッセージの送受信を行うメッセージ交換システムのアプリケーションを実装した。   When a message is exchanged with a nearby partner on a mobile terminal, an email or instant messenger must acquire an account in advance and designate the partner every time using an email address or the like. In this embodiment, such a complicated operation is not performed, and an application of a message exchange system that intuitively transmits and receives a message using the other party's angle information such as “who is at which angle” is implemented.

図16の概念図において、各タブレット上でメッセージ交換システムのアプリケーションが起動しており、無線LANで親機に立てられたサーバ装置に接続されている。メッセージ交換システムでは、メッセージの書かれた付箋型のウィンドウをドラッグして(すなわち、当該アプリケーションにおいて、上記計算された各ノードの位置に基づいて、公知のポインティングデバイスを有する表示部であるディスプレイ上で上記各ノードに対する方向を対応させ、上記ディスプレイ上で所定のデータを送信すべきノードに向けて、ドラッグすることにより、当該送信すべきノードを指示する。)相手方のノードへ向けて飛ばすことでメッセージの送信を行う。送られてきた付箋に、メッセージを追加して隣の人に回すといった操作を、接続時に指定する自分の名前、サーバのIPアドレス及びポート番号のみで行うことができる。   In the conceptual diagram of FIG. 16, an application of a message exchange system is activated on each tablet, and is connected to a server device that is set up as a base unit via a wireless LAN. In the message exchange system, a sticky note type window on which a message is written is dragged (that is, on the display, which is a display unit having a known pointing device based on the calculated position of each node in the application). Corresponding the direction to each of the above nodes, drag the predetermined data on the display to the node where the data should be transmitted to indicate the node to be transmitted.) Message by skipping to the other node Send. Operations such as adding a message to a sent tag and turning it to the next person can be performed only with the user's own name, server IP address and port number specified at the time of connection.

メッセージ交換システムを使用するには、予め全てのタブレットに、「他のタブレットが自分から見てどの方向にあるか」という角度情報を取得させる必要があり、図14A及び図14Bを参照して説明した、上述の通信手順及び処理によりすべてのタブレットの角度情報を得ることができる。   In order to use the message exchange system, it is necessary for all the tablets to obtain angle information “in which direction the other tablet is seen from the user” in advance, which will be described with reference to FIGS. 14A and 14B. The angle information of all tablets can be obtained by the communication procedure and process described above.

メッセージ交換システムのアプリケーションの使用例を示す図17において、普段はタスクトレイに常駐しており、アイコンをダブルクリックすると付箋ウィンドウが画面上に表示される。自分で出した付箋は青、他のタブレットから送られてきた付箋は黄で表示されている。付箋をドラッグ&ドロップすると画面外へ飛んで行き、付箋に書かかれた内容が飛んで行った方向に一番近い相手へ送信される。メッセージを受信した時は、受信したメッセージが書かれた付箋が、送信者の登録されている角度の画面外から飛んでくる。また、付箋は右クリックメニューから削除を選択することで削除できる。   In FIG. 17, which shows an example of using an application of the message exchange system, it is usually resident in the task tray, and a sticky note window is displayed on the screen when the icon is double-clicked. Your own sticky notes are displayed in blue, and those sent from other tablets are displayed in yellow. When you drag and drop a sticky note, it will fly off the screen, and the content written on the sticky note will be sent to the partner closest to the direction you were flying. When a message is received, a sticky note on which the received message is written flies off the screen at the angle where the sender is registered. The tag can be deleted by selecting Delete from the right-click menu.

図18は図12の位置測定システムを用いたホッケーゲームシステムの概念を示す平面図である。上述したメッセージ交換システムでは、「どの角度に誰がいるか」という角度情報のみを用いたが、各タブレットが持つ角度情報を集約して各タブレット間の距離を求めることで、データを時間差で伝送することが可能となる。この手法を用いて、タブレット間で互いにボールを送り合って対戦する多人数ホッケーゲームシステムのアプリケーションを実装した。   FIG. 18 is a plan view showing a concept of a hockey game system using the position measurement system of FIG. In the message exchange system described above, only the angle information “who is at which angle” is used. However, by collecting the angle information held by each tablet and obtaining the distance between the tablets, data can be transmitted with a time difference. Is possible. Using this technique, we implemented an application for a multiplayer hockey game system in which players play each other with balls.

図18の概念図において、接続方法、角度情報の取得、データの送受信方法はメッセージ交換システムと同様である。ホッケーゲームシステムは、ボールをバーで弾くことで互いに相手の画面へ送り合って対戦する。今回は、ゲームに参加する人数を4人とする。   In the conceptual diagram of FIG. 18, the connection method, the acquisition of angle information, and the data transmission / reception method are the same as those of the message exchange system. In the hockey game system, players play against each other by playing balls with a bar. This time, the number of participants in the game is four.

サーバ装置の実行画面を図19に示す。サーバ装置は、各タブレットの角度情報を収集して距離を計算するSSLボタン、ゲームを開始(Start)、中断(Pause)、リセット(Reset)するボタン、接続を終了するEndボタンを有する。テキストエリアには、接続情報、距離情報計算の終了通知、誰が誰にボールを送ったか等が表示される。サーバは、全てのタブレットが角度情報を取得した後、ゲームを開始する前にSSLボタンを押して全員分の距離情報を計算する。距離情報の計算では、図15に示すように、12個の角度の値とどれか1辺の長さを用いて、正弦定理により全ての辺の長さを求める。ABの長さをとすると、ACの長さは上記(1)式で求められる。また、他の辺の長さも同様に、12個の角度と長さdを用いて求めることができる。各センサノードが上述の時刻同期を行うことができれば、上記の計算法を用いずに、各センサノードが発音開始時間と到達時間の差から距離を求めることができる。今回は参加人数を4人としたが、この方法を使えば参加人数に関わらず距離を求めることができる。   An execution screen of the server device is shown in FIG. The server device includes an SSL button that collects angle information of each tablet and calculates a distance, a button that starts a game, a pause, a reset, and an End button that ends the connection. The text area displays connection information, distance information calculation completion notification, who sent the ball to whom, and the like. After all the tablets have acquired the angle information, the server calculates the distance information for all members by pressing the SSL button before starting the game. In the calculation of distance information, as shown in FIG. 15, the lengths of all sides are obtained by the sine theorem using the values of 12 angles and the length of any one side. When the length of AB is taken, the length of AC is obtained by the above equation (1). Similarly, the lengths of the other sides can be obtained using 12 angles and the length d. If each sensor node can perform the above-described time synchronization, each sensor node can obtain the distance from the difference between the sound generation start time and the arrival time without using the above calculation method. Although the number of participants was four this time, this method can be used to determine the distance regardless of the number of participants.

図19は図17のホッケーゲームシステムのサーバ装置の実行画面の表示例であり、図20は図17のホッケーゲームシステムを実行しているときのタブレットの表示例である。図19において、画面上部に得点が表示されており、ボールが画面下部に落ちると−1、自分が送ったボールで相手がミスすると1だけインクリメントされる。画面をタッチすると、バーの少し上にボールが出現し、自分が出したボールや相手から送られてきたボールをバーで弾いて相手に送る。バーは上下左右に動かすことができ、加速をつけてボールを弾くことで、相手に速いボールを送ることができる。ボールの色はプレイヤー毎に異なり、誰から送られてきたボールか区別できる。誰かの得点が10か−30になったところでゲーム終了となる。   FIG. 19 is a display example of the execution screen of the server device of the hockey game system of FIG. 17, and FIG. 20 is a display example of the tablet when the hockey game system of FIG. 17 is being executed. In FIG. 19, a score is displayed at the top of the screen, and is incremented by 1 when the ball falls to the bottom of the screen and when the opponent misses with the ball that he sent. When you touch the screen, a ball appears a little above the bar, and you play the ball that you put out or the ball sent from your opponent with the bar and send it to your opponent. The bar can be moved up, down, left and right, and you can send a fast ball to your opponent by playing the ball with acceleration. The color of the ball varies from player to player, and you can tell who has sent the ball. The game ends when someone scores 10 or -30.

本発明は、マイクロホンアレイを用いて端末の位置を高精度に測定できる位置測定システム及びそれを用いたアプリケーションに有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for a position measurement system that can measure the position of a terminal with high accuracy using a microphone array and an application using the position measurement system.

1,m11,m12,…,m43,m44…マイクロホン、
1a,1b,1c,…,1n…マイクロホンアレイ、
2,2a,2b,2c,…,2n…収音処理部、
3…入出力部(I/O部)、
4…プロセッサ、
10,11,12…ネットワーク、
20…音声処理サーバ、
30,30a,30b,30c…ノード、
51…AD変換回路、
52…VAD処理部、
53…電源管理部、
54…SRAM、
55…SSL処理部、
56…SSS処理部、
57…ネットワークインターフェース回路、
N0〜Nn…センサノード(ノード)、
SV…サーバ装置、
T1〜T4…タブレット。
1, m11, m12, ..., m43, m44 ... microphones,
1a, 1b, 1c, ..., 1n ... microphone array,
2, 2a, 2b, 2c,..., 2n.
3. Input / output unit (I / O unit),
4 ... Processor,
10, 11, 12 ... network,
20 ... voice processing server,
30, 30a, 30b, 30c ... nodes,
51 ... AD converter circuit,
52 ... VAD processing unit,
53 ... Power management unit,
54 ... SRAM,
55 ... SSL processing unit,
56... SSS processing unit,
57 ... Network interface circuit,
N0 to Nn ... sensor node (node),
SV: server device,
T1-T4 ... Tablet.

Claims (3)

マイクロホンアレイを備えた複数のノードが相互にネットワークで接続されかつ時刻同期されたマイクロホンアレイ・ネットワークシステムを用いて、上記各ノードの位置を推定する制御部を備えた位置測定システムであって、
上記各ノードは、
複数のマイクロホンをアレイ状に配列して構成されたマイクロホンアレイと、
上記マイクロホンアレイで受信した、1つのノードからのサウンド信号に基づいて、上記サウンド信号の到来方向の角度を推定する音源推定処理部と、
上記サウンド信号の送信時刻と受信時刻との差分とサウンド信号の速度に基づいて、上記サウンド信号を送信したノードからの距離を推定する距離推定部と、
上記推定された到来方向の角度及び距離を他のノードに対してデータ通信で送受信するデータ通信部とを備え、
上記制御部は、上記推定された到来方向の角度及び距離に基づいて、上記各ノードの位置を推定して計算し、
上記制御部は、上記各ノードの位置を用いて所定のアプリケーションを実行し、
上記各ノードは表示部を備え、
上記制御部は、上記所定のアプリケーションにおいて、上記計算された各ノードの位置に基づいて、上記表示部上で上記各ノードに対する方向を対応させ、上記表示部上で所定のデータを送信すべきノードに向けてドラッグすることにより、当該送信すべきノードを指示し、当該指示されたノードに対して上記所定のデータを送信することを特徴とする位置測定システム。
A position measurement system including a controller that estimates a position of each node using a microphone array network system in which a plurality of nodes including a microphone array are connected to each other via a network and time-synchronized.
Each of the above nodes
A microphone array configured by arranging a plurality of microphones in an array;
A sound source estimation processing unit that estimates the angle of the arrival direction of the sound signal based on the sound signal from one node received by the microphone array;
A distance estimation unit that estimates a distance from a node that has transmitted the sound signal, based on a difference between a transmission time and a reception time of the sound signal and a speed of the sound signal;
A data communication unit that transmits and receives the estimated angle and distance of the direction of arrival to other nodes by data communication,
The control unit estimates and calculates the position of each node based on the estimated angle and distance of the arrival direction ,
The control unit executes a predetermined application using the position of each node,
Each of the above nodes has a display unit,
In the predetermined application, the control unit associates a direction with respect to each node on the display unit based on the calculated position of each node, and transmits a predetermined data on the display unit A position measuring system, characterized by instructing a node to be transmitted by dragging toward the node and transmitting the predetermined data to the instructed node .
上記制御部は、上記各ノードの位置に基づいて座標値を計算して表示し又は出力することを特徴とする請求項1記載の位置測定システム。   The position measurement system according to claim 1, wherein the control unit calculates and displays or outputs a coordinate value based on the position of each node. 上記制御部は、上記各ノード、上記複数のノードのうちの1つのノード、もしくは、上記複数のノードとは別のサーバ装置に設けられたことを特徴とする請求項1又は2記載の位置測定システム。 3. The position measurement according to claim 1, wherein the control unit is provided in each of the nodes, one of the plurality of nodes, or a server device different from the plurality of nodes. system.
JP2011119072A 2011-05-27 2011-05-27 Position measurement system Expired - Fee Related JP5412470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011119072A JP5412470B2 (en) 2011-05-27 2011-05-27 Position measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119072A JP5412470B2 (en) 2011-05-27 2011-05-27 Position measurement system

Publications (2)

Publication Number Publication Date
JP2012247300A JP2012247300A (en) 2012-12-13
JP5412470B2 true JP5412470B2 (en) 2014-02-12

Family

ID=47467874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119072A Expired - Fee Related JP5412470B2 (en) 2011-05-27 2011-05-27 Position measurement system

Country Status (1)

Country Link
JP (1) JP5412470B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106772247A (en) * 2016-11-30 2017-05-31 努比亚技术有限公司 A kind of terminal and sound localization method
GB201708100D0 (en) * 2017-05-19 2017-07-05 Sintef Input device
CN107422305B (en) 2017-06-06 2020-03-13 歌尔股份有限公司 Microphone array sound source positioning method and device
JP6859235B2 (en) * 2017-09-07 2021-04-14 本田技研工業株式会社 Sound processing equipment, sound processing methods and programs
JP7001566B2 (en) * 2018-09-04 2022-02-04 本田技研工業株式会社 Sound processing equipment, sound processing methods, and programs
CN112435441B (en) * 2020-11-19 2022-08-16 维沃移动通信有限公司 Sleep detection method and wearable electronic device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3307146B2 (en) * 1995-03-27 2002-07-24 三菱電機株式会社 Positioning device
JP2001166025A (en) * 1999-12-14 2001-06-22 Matsushita Electric Ind Co Ltd Sound source direction estimating method, sound collection method and device
JP4041899B2 (en) * 2005-03-01 2008-02-06 大学共同利用機関法人情報・システム研究機構 Ultrasonic distance measuring system and ultrasonic distance measuring method
US8155331B2 (en) * 2006-05-10 2012-04-10 Honda Motor Co., Ltd. Sound source tracking system, method and robot
JP5610333B2 (en) * 2009-07-13 2014-10-22 独立行政法人情報通信研究機構 Information sharing method in cognitive radio communication

Also Published As

Publication number Publication date
JP2012247300A (en) 2012-12-13

Similar Documents

Publication Publication Date Title
JP5289517B2 (en) Sensor network system and communication method thereof
JP5412470B2 (en) Position measurement system
CN107643509B (en) Localization method, positioning system and terminal device
Mandal et al. Beep: 3D indoor positioning using audible sound
JP5022461B2 (en) Microphone array network system and sound source localization method using the system
CN105378801A (en) Holographic snap grid
CN109932686A (en) A kind of localization method, mobile terminal and indoor locating system
CN110493690A (en) A kind of sound collection method and device
WO2017197867A1 (en) Method and apparatus for collecting sound signal
KR20240028481A (en) System and method for generating a three-dimensional map of an indoor space
US11641561B2 (en) Sharing locations where binaural sound externally localizes
JP2019062435A (en) Equipment control device, equipment control program, equipment control method, dialog device, and communication system
CN109524018A (en) A kind of echo processing method and equipment
CN110572600A (en) video processing method and electronic equipment
CN100538607C (en) The audio sensor on the Distributed Calculation platform and the three-dimensional position of actuator are proofreaied and correct
US6941246B2 (en) Method for three-dimensional position calibration of audio sensors and actuators on a distributed computing platform
CN109168126A (en) Localization method, relevant device and computer readable storage medium
KR20150082085A (en) Computing system with command-sense mechanism and method of operation thereof
JP2011033369A (en) Conference device
Perez et al. Acoustic event localization on an Arduino-based wireless sensor network
EP2972815A2 (en) Service aware software architecture in wireless device ecosystem
Verreycken et al. Passive acoustic sound source tracking in 3D using distributed microphone arrays
CN111289947B (en) Information processing method, device and equipment
CN113472943A (en) Audio processing method, device, equipment and storage medium
CN113101664A (en) Path finding indication method, device, terminal and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130730

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131111

LAPS Cancellation because of no payment of annual fees