JP6488492B2 - 音響処理装置及び音響処理方法 - Google Patents

音響処理装置及び音響処理方法 Download PDF

Info

Publication number
JP6488492B2
JP6488492B2 JP2015023308A JP2015023308A JP6488492B2 JP 6488492 B2 JP6488492 B2 JP 6488492B2 JP 2015023308 A JP2015023308 A JP 2015023308A JP 2015023308 A JP2015023308 A JP 2015023308A JP 6488492 B2 JP6488492 B2 JP 6488492B2
Authority
JP
Japan
Prior art keywords
sound
sound source
unit
sound processing
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015023308A
Other languages
English (en)
Other versions
JP2016035443A (ja
Inventor
圭佑 中村
圭佑 中村
一博 中臺
一博 中臺
哲男 木下
哲男 木下
高橋 秀幸
秀幸 高橋
シナパヤ ラナ
シナパヤ ラナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2015023308A priority Critical patent/JP6488492B2/ja
Priority to US14/808,444 priority patent/US9720068B2/en
Publication of JP2016035443A publication Critical patent/JP2016035443A/ja
Application granted granted Critical
Publication of JP6488492B2 publication Critical patent/JP6488492B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、音響処理装置及び音響処理方法に関する。
収録した音響信号から音源の方向や位置を推定することは、音源定位(SSL:Sound Source Localization)と呼ばれ、ロボット聴覚、音声認識、高品質通話、音源探索、など広範な応用が期待されている。音源定位では、チャネル間の微小な時間差やレベル差が手がかりとして用いられるので、多チャネルの音響信号を収録することが要求される。そのため、複数のマイクロホンからなるマイクロホンアレーが用いられてきた。他方、複数のマイクロホンを一体的に配置したマイクロホンアレーは、その規模が大きくなりがちであり、設置空間が確保されないことがあった。昨今では、分散配置された複数のマイクロホンをマイクロホンアレーとして用いることが試みられている。
例えば、非特許文献1には、複数のモバイル端末に備えられたマイクロホンのそれぞれで収集した音声信号を無線通信により共有し、共有された音声信号に基づいて音源定位を行うマイクロホンアレー処理について記載されている。非特許文献1に記載のマイクロホンアレー処理では、モバイル端末間の位置関係の情報を用いる。音源定位を行うためには、各モバイル端末を予め定めた位置に固定しておき、所定の音源から発された音響信号を用いて自己位置推定(キャリブレーション)等の前処理を要していた。
小野順貴、Kien LE TRUNG、宮部滋樹、牧野昭二、アドホックマイクロホンアレー −複数のモバイル録音機器で行う音響信号処理−、Fundamentals Review、電子情報通信学会 基礎・境界ソサイエティ、2014年4月、Vol.7、No.4、pp.336−347
しかしながら、マイクロホンを備えた機器の配置は多様であり、随時変動することがある。例えば、モバイル端末は、各ユーザが持ち運びながら使用されることが通例である。他方、移動の都度、キャリブレーションを行うことや、ユーザに対してキャリブレーションを行うための操作を強いることは実用的ではない。
本発明は上記の点に鑑みてなされたものであり、事前にキャリブレーションを行わずに音源定位を可能にする音響処理装置を提供する。
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、音響信号を収録する収音部と、自装置の動作を検出する動作検出部と、前記音響信号と前記動作に基づいて自装置の位置を推定する自己定位部と、予め定めた基準音源から到来した基準信号の強度に基づいて前記音響信号を検出対象の対象音源の位置を検出する音源定位部において使用するか否かを判定する使用判定部と、を備える音響処理装置である。
(2)本発明のその他の態様は、上述の音響処理装置であって、前記音源定位部をさらに備え、前記音源定位部は、前記自己定位部が推定した前記自装置である主装置の位置を示す主装置位置情報、他の音響処理装置である従装置から前記従装置の位置を示す従装置位置情報、前記収音部が収録した音響信号である主装置音響信号および前記従装置から当該従装置において収録された音響信号である従装置音響信号を取得し、前記主装置音響信号ならびに前記従装置音響信号と、前記主装置位置情報ならびに前記従装置位置情報に基づいて前記対象音源の位置を検出する。
(3)本発明のその他の態様は、上述の音響処理装置であって、前記使用判定部は、前記主装置音響信号と前記主装置位置情報を音源定位に使用すると判定した時期に基づいて、自装置が主装置であることを示す主装置通知情報を他の音響処理装置に無線で送信し、前記他の音響処理装置から前記従装置音響信号と前記従装置位置情報を無線で受信する。
(4)本発明のその他の態様は、上述の音響処理装置であって、前記使用判定部が他の音響処理装置から自装置が主装置であることを示す主装置通知情報を受信した場合、前記従装置音響信号と前記従装置位置情報を前記他の音響処理装置に無線で送信する。
(5)本発明のその他の態様は、上述の音響処理装置であって、前記音源定位部は、前記対象音源の位置の予測値に基づいて推定された前記主装置音響信号の強度の予測値と前主装置音響信号の強度の計測値との差の大きさを減少させるように前記対象音源の位置を更新する。
(6)本発明のその他の態様は、上述の音響処理装置であって、前記音源定位部は、前記対象音源の位置の予測値と前記従装置音響信号に基づく前記対象音源の位置の予測値との差の大きさを減少させるように前記対象音源の位置を更新する。
(7)本発明のその他の態様は、上述の音響処理装置であって、前記音源定位部は、前記対象音源の位置の更新において、前記差の総和と前記位置の予測値の分布を表す共分散行列を正規化した行列との積に、1以下の正の係数を乗じて更新量を算出し、前記更新量を用いて前記位置の予測値を更新する。
(8)本発明のその他の態様は、上述の音響処理装置であって、移動可能な移動体に備えられている。
(9)本発明のその他の態様は、上述の音響処理装置であって、前記移動体は、飛行体である。
(10)本発明のその他の態様は、上述の音響処理装置であって、前記移動体は、ロボットである。
(11)本発明のその他の態様は、音響処理装置における音響処理方法であって、収音部が収録した音響信号と動作検出部が検出した前記音響処理装置の動作に基づいて自装置の位置を推定する自己定位過程と、予め定めた基準音源から到来した基準信号の強度に基づいて前記音響信号を検出対象の対象音源の位置を検出する音源定位部において使用するか否かを判定する使用判定過程と、を有する音響処理方法である。
本発明の態様(1)及び(11)によれば、収録した音響信号に含まれる基準信号と検出した動作に基づいて自装置の位置が推定され、基準信号の強度に基づいて音響信号が音源定位に使用するか否かが判定される。そのため、収録した音響信号から自装置の位置情報を取得し、収録した音響信号が音源定位に用いられるか否かが判定されるので、事前にキャリブレーションを行わなくても音源定位が可能になる。
本発明の態様(2)によれば、基準信号の強度に基づいて使用すると判定された他の音響処理装置から取得した音響信号と位置情報に基づいて、音響処理装置間の位置による受音特性の差異を用いた音源定位が可能になる。
本発明の態様(3)によれば、自装置が音源定位の基準となる主装置であることを判定し、他の音響処理装置に対して通知するとともに、他の音響処理装置からそれぞれの位置を示す位置情報と音響信号を無線で取得することができる。そのため、自装置に音源定位を行うための情報を集約することができる。また、音源定位を行うための情報の集約において物理的な配線のための部材を要しないため配置の自由度が向上する。
本発明の態様(4)によれば、主装置である他の音響処理装置を認知することができ、主装置に対して音源定位に要する自装置の位置を示す位置情報と収録した音響信号を無線で提供することができる。また、音源定位を行うための情報の提供において物理的な配線のための部材を要しないため配置の自由度が向上する。
本発明の態様(5)によれば、個々の音響処理装置で取得された音響信号に基づいて音源定位を行うことができる。個々の音響処理装置が音源定位部をそれぞれ備えることで、音響処理装置間で音響信号を送受信する必要がなくなるので、音響処理装置間における伝送容量を有効に活用することができる。また、複数の音響処理装置間で音響信号を連立して処理する必要がなくなるので、処理量を減少させることができる。
本発明の態様(6)によれば、音響処理装置毎の音響環境、処理特性の差異によって異なる誤差を含んだ対象音源の位置の予測値が相互に収束し、これらの誤差が相殺されるため、音源定位の精度を向上させることができる。
本発明の態様(7)によれば、対象音源の位置に係る予測値の更新量を、個々の音響処理装置で予測された対象音源の位置の予測値の差の総和を、予測値の分布に応じて正規化した値よりも小さくすることで、予測値の発散を防止することができる。
本発明の態様(8)によれば、収録した音響信号とともに、移動する自装置の位置情報が自律的に取得されるので、音源定位を逐次に行うことが可能になる。
本発明の態様(9)によれば、収録した音響信号とともに、飛行する自装置の位置情報が自律的に取得されるので、音源定位を逐次に行うことが可能になる。また、本発明の態様(9)は、必ずしも地面に支持されなくともよいため、配置の自由度が向上する。
本発明の態様(10)によれば、収録した音響信号とともに、ロボットに設置された自装置の位置情報が自律的に取得されるので、ロボットの位置を基準とした音源定位を行うことが可能になる。
本発明の実施形態に係る音響処理システムの構成を示す概念図である。 本発明の実施形態に係る音響処理装置の構成を示す概略ブロック図である。 本発明の実施形態に係る使用判定部による使用不使用判定を説明するための図である。 本発明の実施形態に係る音響処理を示すフローチャートである。 個別の音響処理装置に対する雑音の重畳の影響を示す図である。 検出時間に対する音響処理装置の数の影響を示す図である。 音源定位に係る各手法の特徴を示す概念図である。 音源定位処理の例を示すフローチャートである。
以下、図面を参照しながら本発明の実施形態について説明する。
図1は、本実施形態に係る音響処理システム1の構成を示す概念図である。
音響処理システム1は、N個(Nは、2以上の整数、例えば4)の音響処理装置10−1〜10−N、情報処理装置20、及びM個(Mは、1以上の整数、例えば2)の基準音源41−1〜41−Mを含んで構成される。以下の説明では、音響処理装置10−1〜10−N、基準音源41−1〜41−Mを区別しない場合には、それぞれ単に音響処理装置10、基準音源41と呼ぶことがある。
音響処理装置10は、移動体と1個の収音部(後述)を含んで構成される。移動体は、例えば、クアドロコプタ(Quadrocopter)である。クアドロコプタは、4個の回転翼を備えた飛行体(drone)である。移動体には、収音部、その他の部材が装着されることにより、音響処理装置10が移動可能に形成される。
音響処理装置10は、基準音源41−1〜41−Mから到来した音波に基づいて自己定位(Self−Localization)を行う。自己定位とは、自装置の位置を同定することを指す。音響処理装置10は、基準音源41−1〜41−Mから到来した音響信号の強度に基づいて自装置で取得した各種のデータを、基準音源41−1〜41−Mとは別個の未知音源(例えば、対象音源51)に対する音源定位に用いるか否かを判定する。自装置で取得したデータには、自装置で収録した音響信号及び自装置の位置を示す位置情報が該当する。
以下の説明では、そのデータが音源定位に使用されることを単に「使用」と呼び、使用に係る音響処理装置10を「使用装置」と呼ぶことがある。また、「使用装置」以外の音響処理装置10を「不使用装置」と呼ぶことがある。
使用装置の台数が所定の台数(例えば2)以上である場合、それぞれの使用装置が備える収音部によりマイクロホンアレーが形成される。使用装置のいずれか1台は、他の使用装置から、それぞれが同定した位置を示す位置情報と、それぞれが収録した音響信号を受信する。
以下の説明では、その1台の使用装置を「主装置」、他の使用装置を「従装置」と呼ぶことがある。主装置は、各使用装置が同定した位置と各使用装置で収録した音響信号とに基づいて音源定位を行うことにより、未知の音源の空間情報(方向又は位置)を定める。主装置は、定めた音源毎の音源空間情報を情報処理装置20に送信する。
情報処理装置20は、音響処理装置10のうち主装置から音源空間情報を受信し、受信した音源空間情報をその時点の時刻を示す時刻情報と対応付けて記憶する。情報処理装置20は、例えば、移動機構を有していないパーソナルコンピュータ(PC:Personal Computer)、サーバ装置、その他の地上局装置(ground station)である。
なお、情報処理装置20は、音響処理装置10−1〜10−Mのいずれからも音源空間情報を受信する可能性がある。音響処理装置10−1〜10−Mは、いずれも主装置になりうるためである。そこで、情報処理装置20は、受信した音源空間情報が示す音源の位置について所定の確率分布(例えば、多次元ガウシアン)を仮定して、その期待値をM個の音響処理装置10間で共通の共通音源位置として算出してもよい。より具体的には、情報処理装置20は、受信した音源空間情報が示す音源の位置についてアンセンテッド・カルマンフィルタ(UKF:Unscented Kalman Filter)を用いて音源毎の共通音源位置を算出する。UKFは、状態(この例では、各音源の音源位置)の誤差分布の統計量として2次のモーメントを算出し、逐次に条件付き期待値を算出する手法である。これにより、複数の音源位置をサンプル点として集合平均的に統計量が近似されるので、異なる音響処理装置10間で算出される音源位置が平滑化される。
基準音源41−1〜41−Mは、それぞれ所定の特性を有する基準信号を音波として放射する音源である。基準音源41−1〜41−Mが放射する基準信号は、例えば、予め定めた周波数の正弦波であり、基準音源41−1〜41−M間で周波数が互いに異なる。それぞれの周波数は、いずれも各音響処理装置10が備える収音部101で検出可能な帯域、例えば、可聴帯域(例えば、20Hz−20kHz)内に含まれる。従って、収録された音響信号に含まれる基準信号の周波数成分を抽出し、抽出した周波数成分に基づいて基準信号を放射した基準音源を特定することが可能である。
(音響処理装置の構成)
次に、本実施形態に係る音響処理装置10の構成について説明する。
図2は、本実施形態に係る音響処理装置10の構成を示す概略ブロック図である。
音響処理装置10は、収音部101、動作検出部102、使用判定部111、自己定位部112、音源定位部113、及び通信部121を含んで構成される。
収音部101は、音波として到来した音響信号を電気信号に変換する無指向性のマイクロホンである。収音部101は、1チャネルの音響信号を収録することができればよい。収音部101は、電気信号に変換された音響信号を使用判定部111、自己定位部112、及び音源定位部113に出力する。
動作検出部102は、自装置の動作を検出し、検出した動作を示す動作情報を生成するセンサである。動作検出部102は、例えば、3軸の磁気センサ、3軸の加速度センサ、3軸のジャイロスコープを含んだ、9軸のセンサである。動作情報として、加速度と方向が生成される。動作検出部102は、生成した動作情報を自己定位部112に出力する。
使用判定部111は、収音部101から入力された音響信号の強度に基づいて、自装置で取得したデータ(音響信号、位置情報)を音源定位に使用するか否かを判定する(使用不使用判定)。ここで、使用判定部111は、入力された音響信号をフィルタリングして基準音源41−1〜41−Mの各々に対応した基準信号の周波数成分を抽出し、基準信号の強度が、予め定めた強度の閾値Lthよりも高いか否かを判定する。
使用判定部111は、基準音源41−1〜41−Mのいずれについても閾値Lthよりも高いと判定した場合、自装置で取得したデータを音源定位に用いると判定する。即ち、自装置が使用装置であると判定される。また、使用判定部111は、基準音源41−1〜41−Mのいずれかについて閾値Lthほど高くないと判定した場合、自装置で取得したデータを音源定位に用いないと判定する。即ち、自装置が不使用装置であると判定される。
なお、使用判定部111は、自装置が直前まで主装置(後述)であった場合でも、自装置が不使用装置であると新たに判定した場合には、自装置は主装置ではないと判定する。
使用判定部111は、自装置が使用装置であるか又は不使用装置であるかを示す使用情報を、他の音響処理装置10に通信部121を介して送信する。使用判定部111は、使用情報を他の音響処理装置10から通信部121を介して受信する。これにより、使用判定部111は、使用装置の数、新たに使用装置になった音響処理装置10ならびに新たに不使用装置になった音響処理装置10を逐次に把握することができる。使用判定部111は、使用装置の数(使用装置数)が予め定めた数(例えば、2)以上である場合、音源定位を行うと判定する。
使用判定部111は、自装置が音源定位を行うと判定した音響処理装置10のうち最も早く使用装置になったと判定した場合、自装置が主装置であると判定する。なお、他の音響処理装置10が主装置であるときに使用装置でないと新たに判定された場合には、自装置の使用判定部111は、自装置が残りの使用装置(自装置も含む)のうち最も早く使用装置になった場合、自装置が主装置であると判定する。
使用判定部111は、主装置であると判定した場合、自装置が主装置であることを示す主装置通知情報を他の音響処理装置10に通信部121を介して送信する。
使用判定部111は、他の音響処理装置10から通信部121を介して主装置通知情報を受信した場合には、自装置が従装置であると判定する。
使用判定部111は、自装置が主装置であるか又は従装置であるかを示す主従情報を音源定位部113に出力する。
自己定位部112は、動作検出部102から入力された動作情報と収音部101から入力された音響信号に基づいて自己定位を行って、自装置の位置を示す位置情報を生成する。自己定位部112は、例えば、拡張カルマンフィルタ(EKF:Extended Karman Filter)を用いて自装置の位置を推定する。EKFは、ある状態(本実施形態では、位置と速度の組からなる)の誤差の分布がガウス分布に従うものと仮定して、逐次に条件付き期待値を算出する手法である。この処理において、自己定位部112は、音響信号のうち基準音源41−1〜41−Mの各々から到来した基準信号の距離減衰を拘束条件として、動作情報が示す加速度に基づいて自装置の位置と速度からなる状態ベクトルを逐次に更新する。ここで、自己定位部112は、空間情報が示す加速度の方向を、空間情報が示す方向を用いて、所定の方向(例えば、鉛直方向)を基準とした方向に補正し、補正した加速度を状態ベクトルの更新に用いる。自己定位の詳細については後述する。自己定位部112は、生成した位置情報を音源定位部113に出力する。
音源定位部113は、使用判定部111から入力された主従情報が主装置を示す場合、音源定位を行う。音源定位部113は、他の使用装置から通信部121を介して音響信号と位置情報を受信し、収音部101から音響信号が入力され、自己定位部112から位置情報が入力される。音源定位部113は、各使用装置で取得された音響信号に対してフィルタリングして基準音源41−1〜41−Mの各々から到来した基準信号の周波数成分を除去する。音源定位部113は、各使用装置についてフィルタリングした音響信号と、その使用装置で取得された位置情報とに基づいて音源定位を行う。音源定位部113は、例えば、重み付き遅延和ビームフォーミング法(WDS−BF:Weighted Delay and Sum Beamforming)を用いて各音源の位置を推定する。
重み付き遅延和ビームフォーミング法は、各チャネル(使用装置)の音響信号に対する重みづけ遅延和信号を算出し、遅延和信号のパワーが極大となるような、チャネル毎の重み係数と遅延の組に対応する音源空間情報(音源方向又は音源位置)を探索する方法である。音源空間情報と重み係数ならびに遅延の組との対応関係は、例えば、その音源と各使用装置の収音部101との間の距離によって一意に与えられる。なお、音源定位部113は、必ずしも単一の音源の音源空間情報に限らず、複数の音源のそれぞれについて推定することがある。音源定位部113は、音源毎の音源空間情報を情報処理装置20に通信部121を介して送信する。
通信部121は、他の機器(図2に示す例では、他の音響処理装置10、情報処理装置20)との間でデータを無線で送受信する。通信部121は、例えば、代表的な無線通信規格であるIEEE802.11を用いてデータを送受信する無線通信インタフェースである。
(使用不使用判定)
次に、使用不使用判定について説明する。
図3は、本実施形態に係る使用判定部111による使用不使用判定を説明するための図である。
図3の上段は、基準音源41と音響処理装置10との位置関係を示す。左方から右方に向いている破線の矢印は、音響処理装置10の移動軌跡を示す。これに対し、基準音源41は、静止している。矢印で示される移動軌跡の中間において音響処理装置10は基準音源41に最も接近し、その地点から離れるほど音響処理装置10は基準音源41から遠ざかる。
図3の下段は、収音部101で収録される音響信号のうち基準音源41から到来した基準信号の強度の時間変化を示す。縦軸、横軸は、それぞれ時刻、強度を示す。強度は、当初増加し、時刻tにおいて極大値に達した後、減少する。強度が予め定めた強度の閾値Lthを超える時点、Lthを下回る時点は、それぞれt、tである。図3に示す例では、音響処理装置10は、時刻tから時刻tまでの間、使用端末であると判定され、時刻tよりも前、又は時刻tよりも後において、不使用端末であると判定される。
このような強度の時間変化は、音響処理装置10が、当初において基準音源41に接近し、最接近後において基準音源41から離れることによる。そのため、基準音源41から到来した基準信号の強度が十分な場合に自己定位が行われ、取得した音響信号や位置情報が音源定位に用いられることで、自己定位ひいては音源定位の精度を確保することができる。
(自己定位)
次に、自己定位について説明する。EKFに基づく自己定位は、予測と修正の過程を含み、これらの過程が繰り返される。自己定位部112は、動作検出部102から入力された動作情報が示す方向に基づいて動作情報が示す加速度の方向を補正する。自己定位部112は、補正した加速度と、現時刻kの(又は修正(後述)された)位置ならびに速度に基づいて、次時刻k+1の位置ならびに速度を予測する。予測において、自己定位部112は、例えば、式(1)、(2)を用いる。
k+1|k=FXk|k+GU … (1)
k+1|k=FPk|k+V … (2)
式(1)において、Xは、状態ベクトルを示す。X=[x,y,z,v,v,vである。ここで、x,y,zは、音響処理装置10の位置を示す。v,v,vは、音響処理装置10の速度を示す。Tは、ベクトル又は行列の転置を示す。kは、離散時刻を示すインデックスである。つまり、Xk|kは、現時刻kの状態ベクトルを示し、Xk+1|k]は、現時刻kの状態ベクトルから予測された次時刻k+1の状態ベクトルを示す。F]は、時刻kの関数であるXk|kの時間発展を与える線形作用素を示す。Fは、例えば、[E,Δt・E]である。Eは、3行3列の単位行列である。Δtは、現時刻kと次時刻k+1との間の時間間隔を示す実数(スカラー)である。Gは、時刻kの関数であるUによるXk|kの時間発展を与える線形作用素である。例えば、Δt[0,E]である。[…]内の0は、3行3列の零行列を示す。Uは、制御信号(ベクトル)を示す。Uは、例えば、[a,a,aであり、a,a,aは、音響処理装置10の加速度、つまり自己定位部112により補正された加速度を示す。
式(2)において、Pは、誤差共分散(error covariance)行列を示す。Vは、処理ノイズ(process noise covariance)共分散行列を示す。
次に、自己定位部112は、所定の誤差範囲内に誤差が収束するように予測した次時刻k+1の位置ならびに速度を修正する。この修正において、自己定位部112は、各基準音源41から到来した基準信号の強度を、その基準音源41から音響処理装置10までの距離に応じた強度に近づけることで、基準音源41からの距離減衰が拘束条件として課される。具体的には、自己定位部112は、式(3)、(4)を用いる。
k+1|k+1=Xk+1|k+RB … (3)
k+1|k+1=Pk+1|k−RHk+1k+1|k … (4)
式(3)、(4)において、Rは、カルマンゲイン(行列)を示し、R=Pk+1|k k+1−1と算出される。Hは、距離減衰関数hを要素とする距離減衰ベクトルの状態ベクトルXに対するヤコビアンを示す。ここで、iは、基準音源41−iを示す1からMまでの間の整数である。距離減衰関数hは、h(X)=I/((x−x)+(y−y)+(z−z))と算出される。Iは、基準音源41−iから所定の距離(例えば、1m)離れた位置における、基準音源41−iから到来した基準信号の強度を示す。x,y,zは、基準音源41−iの位置を示す。基準音源41−iの位置は、自己定位部112において予め設定されている。行列Sは、S=H k+1k+1|k k+1+Wと算出される。Wは、測定ノイズ共分散(measurement noise covariance)行列を示す。測定ノイズは、カルマンゲインRを算出する際に零除算を防止するために付加するノイズである。ベクトルBは、B=Yk+1−h(Xk+1|k)と算出される。Yは、システム出力ベクトルである。システム出力ベクトルYは、収音部101から入力された音響信号から抽出された基準音源41−iから到来した基準信号の強度を要素とするベクトルである。
(音響処理)
次に、本実施形態に係る音響処理について説明する。
図4は、本実施形態に係る音響処理を示すフローチャートである。
(ステップS101)使用判定部111は、収音部101から入力された音響信号に対してフィルタリングして基準音源41−1〜41−Mの各々の基準信号の周波数成分を抽出し、フィルタリングした基準信号の強度を計測する。その後、ステップS102に進む。
(ステップS102)自己定位部112は、動作検出部102から入力された動作情報と収音部101から入力された音響信号に基づいて自己定位を行って、自装置の位置を推定する。その後、ステップS103に進む。
(ステップS103)使用判定部111は、計測した基準強度が、基準音源41−1〜41−Mについても予め定めた強度の閾値Lthよりも高いかを判定する。高いと判定された場合(ステップS103 YES)、ステップS105に進む。高くないと判定された場合(ステップS103 NO)、ステップS104に進む。
(ステップS104)使用判定部111は、自装置で取得したデータを音源定位に用いないと判定し(不使用判定)、自装置が不使用装置であることを示す使用情報を他の音響処理装置10に送信する。その後、ステップS101に戻る。
(ステップS105)使用判定部111は、自装置で取得したデータを音源定位に用いると判定し、自装置が使用装置であることを示す使用情報を他の音響処理装置10に送信する。また、使用判定部111は、他の音響処理装置10のそれぞれから使用情報を受信する。その後、ステップS106に進む。
(ステップS106)使用判定部111は、他の音響処理装置10から受信した使用情報に基づいて、使用装置の数が所定数以上であるか否かを判定する。所定数以上であると判定された場合には(ステップS106 YES)、ステップS107に進む。所定数未満であると判定された場合には(ステップS106 NO)、ステップS101に戻る。
(ステップS107)使用判定部111は、自装置が主装置であるか否かを判定する。使用判定部111は、自装置が使用装置の中で初めて使用装置になった音響処理装置10である場合、自装置が主装置であると判定し、それ以外の場合、自装置が従装置であると判定する。自装置が主装置であると判定された場合(ステップS107 YES)、ステップS108に進む。自装置が従装置であると判定された場合(ステップS107 NO)、ステップS111に進む。
(ステップS108)使用判定部111は、自装置が主装置であることを示す主装置通知情報を他の使用装置に送信する。その後、ステップS109に進む。
(ステップS109)音源定位部113は、音源定位を行うための初期化を行う。ここで、音源定位部113は、他の使用装置から音響信号と位置情報を受信し、収音部101から音響信号が入力され、自己定位部112から位置情報が入力される。その後、ステップS110に進む。
(ステップS110)音源定位部113は、各使用装置についてフィルタリングした音響信号と、その使用装置で取得された位置情報とに基づいて音源定位を行って、各音源の音源空間情報を取得する。このフィルタリングでは、基準音源41−1〜41−Mの各々から到来した基準信号の周波数成分が除去される。音源定位部113は、取得した音源空間情報を情報処理装置20に送信する。その後、ステップS101に戻る。
(ステップS111)使用判定部111は、主装置から自装置が主装置であることを示す主装置通知情報を受信し、自装置が従装置であると判定する。その後、ステップS112に進む。
(ステップS112)音源定位部113は、主装置での初期化のため、収音部101から入力された音響信号と自己定位部112から入力された位置情報を主装置に送信する。その後、ステップS101に進む。
(評価実験)
次に、本実施形態に係る音響処理装置10の評価実験について説明する。実験では、特に断らない限り、複数の音響処理装置10を2.6m四方の領域内で、一定の高度に保ちながら飛行させた。その領域の周辺部に5個の基準音源41を設置し、各基準音源41から音波を全方向に放射させた。その領域において、検出の対象となる未知の対象音源51を設置し、音波を全方向に放射させた。試行毎に対象音源51の位置をランダムに定め、音響処理装置10を動作させた。また、動作検出部102で検出される空間情報を示すセンサ値にガウシアンノイズを信号対雑音比(SNR:Signal−to−noise Ratio)が30dBとなるように付加した。また、音響処理装置10に備えられた移動体から生じた自己雑音(ego noise)の計測された音の強度に対するSNRは、0dBから−10dBの間である。このSNRは、音響信号よりも雑音の方が、レベルが高いことを示す。
予備的検証においては、上述した自己定位による推定精度について従来法と比較した。本実施形態による自己定位の手法は、各基準音源からの成分の強度を用いる点で、遅延を用いていた従来法とは異なる。また、評価の指標として、推定された音響処理装置10の位置と現実の位置との間の距離を自己定位誤差として算出した。従来法では、自己定位誤差は429.9cmであるのに対し、本実施形態では、自己定位誤差が平均26.5cmと明らかな改善が認められた。音響処理装置10の位置が音源定位に用いられることを鑑みると、この結果は、音源定位により未知の対象音源の位置を、高精度で推定できることを示唆する。
次に、個別の音響処理装置10に対して複数の音響処理装置10の移動体による雑音の重畳の影響を評価した。ここで、音響処理装置10を20cm四方の平面内でランダムに飛行させ、試行毎に飛行させた音響処理装置10の数を変更した。
図5は、個別の音響処理装置10に対する雑音の重畳の影響を示す図である。図5は、音響処理装置10の数が1、5、10である場合のそれぞれについて平均自己定位誤差を示す。音響処理装置10の1個当たりの自己雑音によるSNRが−3dBである場合には、音響処理装置10の数が増加するほど自己定位誤差が増加する。例えば、音響処理装置10が1個、10個の場合、自己定位誤差は、それぞれ19cm、32cmである。この結果は、SNRが−3dBと自己雑音が著しい場合には、音響処理装置10による雑音の重畳により自己定位の精度が劣化することを示す。しかしながら、SNRが−1dBである場合には、音響処理装置10の数に関わらず自己定位誤差は、18cm〜21cmとほぼ一定である。つまり、自己雑音の強度が音響信号とほぼ同等以下であれば、雑音の重畳による影響は認められない。音響処理装置10の位置が音源定位に用いられることを鑑みると、この結果は、自己雑音に対する音源定位の精度の劣化が生じないことを示唆する。
次に、基準音源の検出における音響処理装置10の数の影響を評価した。ここで、各音響処理装置10をランダムに飛行させ、そのうち2つの音響処理装置10が音源を検出するまでの時間(検出時間)を観測した。試行毎に音響処理装置10の数を変更した。
図6は、検出時間に対する音響処理装置10の数の影響を示す図である。縦軸に検出時間を示し、横軸に音響処理装置10の数を示す。検出時間の単位は、処理の反復回数(iteration)である。図6は、検出時間は音響処理装置10の数に依存することを示す。検出時間は、音響処理装置10の数が2個よりも多い場合、2個の場合よりも有意に短い。例えば、音響処理装置10の数が4個である場合、検出時間は37回と、音響処理装置10の数が2個である場合の81回の半分未満である。他方、音響処理装置10の数が7個である場合、検出時間は40回と、音響処理装置10の数が4個である場合の37回よりも3回増加する。音響処理装置10の数が、3個以上あれば音響処理装置10の数の検出時間に対する影響が限定的であることから、3個あれば十分であることを示す。
以上に説明したように、本実施形態に係る音響処理装置10は、音響信号を収録する収音部101と、自装置の動作を検出する動作検出部102と、収録された音響信号と検出された動作に基づいて自装置の位置を推定する自己定位部112を備える。また、音響処理装置10は、予め定めた基準音源41から到来した基準信号の強度に基づいて収録された音響信号と推定された位置を示す位置情報を音源定位部113で使用するか否かを判定する使用判定部111と、を備える。音源定位部113は、各音響処理装置10から取得した音響信号と位置情報に基づいて検出対象の対象音源の位置を検出する。
この構成によれば、収録した音響信号に含まれる基準信号と検出した動作に基づいて自装置の位置が推定され、基準信号の強度に基づいて音響信号と推定した位置を示す位置情報を音源定位部で使用するか否かが判定される。そのため、収録した音響信号とともに、自装置の位置情報が自律的に取得されるので、収音部101を各1個備えた複数の音響処理装置10によりマイクロホンアレーが形成され、事前にキャリブレーションを行わなくても音源定位が可能になる。
また、音響処理装置10において使用判定部111は、音響信号と位置情報を音源定位に使用すると判定した時期に基づいて、自装置が主装置であることを示す主装置通知情報を他の音響処理装置10に無線で送信し、音響処理装置10は、他の音響処理装置10から音響信号と位置情報を無線で受信する。
この構成によれば、自装置が音源定位の基準となる主装置であることを一意に判定し、他の音響処理装置に対して通知するとともに、他の音響処理装置からそれぞれの位置を示す位置情報と音響信号を無線で取得することができる。そのため、自装置に音源定位を行うための情報を集約することができる。また、音源定位を行うための情報の集約において物理的な配線のための部材を要しないため配置の自由度が向上する。
また、音響処理装置10は、音源定位部113を備える。
この構成によれば、自装置に集約された情報を用いて自装置内で音源定位を行うことができる。
また、音響処理装置10において使用判定部111が他の音響処理装置10から自装置が主装置であることを示す主装置通知情報を受信した場合、音響処理装置10は、自装置の音響信号と位置情報を、主装置通知情報を送信した音響処理装置に無線で送信する。
この構成により、音響処理装置10は、主装置である他の音響処理装置10を認知することができ、主装置に対して音源定位に要する自装置の位置を示す位置情報と収録した音響信号を無線で提供することができる。また、音源定位を行うための情報の提供において物理的な配線のための部材を要しないため配置の自由度が向上する。
また、音響処理装置10は、クアドロコプタに備えられていることを特徴とする。
この構成により、収録した音響信号とともに、自装置の飛行時の位置情報が自律的に取得されるので、音源定位を行うことが可能になる。また、音響処理装置10は、必ずしも地面に支持されなくてもよいため、配置の自由度が向上する。
(変形例)
以上、図面を参照してこの発明の実施形態について説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
(音源定位の他の例)
例えば、上述では、音源定位部113が主に重み付き遅延和ビームフォーミング法を用いて音源の位置を推定する場合を例にしたが、これには限られない。音源定位部113は、その他の手法として、例えば、推定した位置に基づいて音響信号の強度を予測し、予測した強度の予測値と収音部101で取得した音響信号の強度(計測値)との差の大きさを減少させるように推定した位置を更新する手法も用いることもできる。この手法によれば、個々の音響処理装置10の収音部101で取得した音響信号の強度に基づいて音源の位置を推定(分散処理)できるため、必ずしも音響処理装置10間で音響信号を送受信する必要がなくなる。また、複数の音響処理装置10間で音響信号を連立して処理する必要がなくなるので、処理量が格段に減少する。これは、音源定位の際に行われる行列演算の処理量が行列の次数の二乗に比例するためである。さらに、使用判定部111において、自装置が主装置であるか否かの判定を省略することができる。音源定位部113は、かかる手法として、各種のカルマンフィルタ、例えば、上述したEKF、UKF、カルマンコンセンサスフィルタ(KCF:Kalman Consensus Filter)、アンセンテッド・カルマンコンセンサスフィルタ(UKCF:Unscented Kalman Consensus Filter)のいずれを用いてもよい。音源定位部113は、推定した音源の位置を示す音源空間情報を、通信部121を介して音源空間情報を情報処理装置20に送信する。
図7は、音源定位に係る各手法の特徴を示す概念図である。図7(a)、(b)、(c)は、それぞれUKF、KCF、UKCFの特徴を示す。UKFは、次の過程(A1)〜(A4)を有する手法である。(A1)位置を示す状態ベクトルの探索空間における複数のサンプル点(シグマ点(sigma point))のそれぞれについて、次時刻の状態ベクトルの予測値を算出する。(A2)シグマ点毎に算出した状態ベクトルの予測値の重み付き平均値を次時刻の状態ベクトルの予測値として算出する。(A3)算出した予測値を、計測値(強度)との差分が小さくなるように修正し、(A4)修正により得られた修正値を基準とし、状態ベクトルの分布を示す共分散行列が示す分布の大きさで分布したシグマ点を設定する。これらの過程を繰り返すことにより、各予測値が目標の状態ベクトルの目標値xtargに収束する。図7(a)において、○印は各時刻における状態ベクトルの予測値x、x、等を示し、◎印は状態ベクトルの目標値xtargを示す。矢印は各時刻における予測の過程を示し、破線はシグマ点間の状態ベクトルの予測値の分布を示す。状態ベクトルの予測値は、通常のカルマンフィルタのように行列の線形結合に頼らずに更新モデルを用いて直接的に取得されるため、UKFは非線形の予測にも適用することができる。
KCFは、自装置における予測値の修正において他の接続可能な音響処理装置10(上述の使用装置に相当)からの予測値を用いて、相互に整合する状態ベクトルの修正値を算出(コンセンサスを形成)する手法である。KCFを用いる際、全ての使用装置間で予測値を共有する。図7(b)において、○印、△印、□印は、それぞれの音響処理装置10について算出された予測値を示す。音響処理装置10間で状態ベクトルを相互に参照することで、それぞれの予測値を状態ベクトルの目標値xtargに収束することができる。但し、従来のKCFは、通常のカルマンフィルタと同様に行列の線形結合を行う処理を含むため、非線形の予測には必ずしも適さない。
UCKFは、UKFとKCFの特徴として、次の特徴(B1)、(B2)を有する方式である。UCKFは、KCFと同様に(B1)複数の音響処理装置10間で相互に整合する状態ベクトルの修正値を算出する。UCKFは、UKFと同様に、(B2)個々の音響処理装置10は、各時刻においてシグマ点間における状態ベクトルの予測値について重み付き平均を行って、代表となる状態ベクトルの予測値を算出する。そのため、UCKFは、個々の音響処理装置10における非線形の状態ベクトルの予測にも適用することができる。
次に、音源定位部113が行う音源定位の具体例について説明する。以下では、説明を簡単にするため、主に式(5)に示すように音源が移動しない場合を例にする。
Figure 0006488492
式(5)において、[x]は、音響処理装置10の位置を基準とする音源位置を示す時刻kにおける状態を示すベクトルである。[…]は、…がベクトル又は行列であることを示す。[x]は、x、y、zを要素とする3次元のベクトル[x,y,zである。以下、ベクトル[x]を状態[x]と呼ぶことがある。Tは、ベクトル又は行列の転置を示す。また、式(5)において、f(…)は、…の時間発展を示す関数である。式(5)に示す例では、f(…)は、恒等関数(identity function)である。このことは、状態更新モデルを通じ時間発展なしに予測ステップが実行されることを意味する。[wk−1]は、時刻k−1における処理ノイズ(process noise)の信号値を要素とするベクトルを示す。処理ノイズの信号値は、例えば、時間平均が0であるガウシアンノイズである。以下、ベクトル[wk−1]を、処理ノイズ[wk−1]と呼ぶことがある。なお、音源位置の移動を仮定し、状態[x]が位置と速度を示す場合には、f(…)に示す演算として、上述した線形作用素Fの乗算が実行されてもよい。
状態[x]と音源からの音響信号の強度を示す計測行列(measuement matrix)[z]との関係を示すモデルとして、式(6)に示す非線形計測モデル(non−linear measurement model)を仮定する。
Figure 0006488492
式(6)において、計測行列[z]は、時刻kにおける音響信号の強度の推定値を要素として含む行列である。以下の説明では、計測行列[z]の要素数が1行1列であるスカラー値である場合を例にすることがある。h([x])は、時刻kにおいて音響処理装置10において計測されうる強度is,kを示す。強度is,kは、式(7)に示すように、音源から音響処理装置10までの距離の二乗に反比例する。[v]は、時刻kにおける計測ノイズ(measurement noise)の信号値を要素として含む行列を示す。計測ノイズの信号値は、例えば、時間平均が0であるガウシアンノイズである。以下の説明では、行列[v]を、計測ノイズ[v]と呼ぶことがある。また、状態[x]の予測値、計測行列[z]の予測値を、それぞれ予測値[x ]、予測値[z ]として区別することがある。さらに、複数の音響処理装置10のうち、特定の音響処理装置10−l(lは、1からLまでの整数、Lは使用装置の数、即ち接続中の音響処理装置10−lの数)に係る予測値[x ]、予測値[z ]を、予測値[xf,l ]、予測値[zf,l ]と呼ぶことがある。また、特定の音響処理装置10−lに係る状態[x]の修正値、計測行列[z]の修正値を、それぞれ修正値[xa,l ]、修正値[za,l ]等と呼ぶことがある。
Figure 0006488492
式(7)において、Iは、音源から所定の距離(例えば、1m)で計測されうる強度を示す。
音源定位処理においてUCKFを用いる場合には、初期化(ステップS109、図4)において、音源定位部113は、次の値を設定する。初期状態(状態[x]の初期値)[x ]、初期の誤差共分散行列(誤差共分散行列[P]の初期値)[P]、処理ノイズ共分散行列[Q]、計測ノイズ共分散行列[R]、コンセンサス係数ε、重み係数W、状態次元数(state dimension)nである。初期状態[x ]は、例えば、[10 30 20]である。初期誤差共分散行列[P]は、例えば、diag[400 400 400]、である。diag[…]は、…を対角要素として有する対角行列を示す。処理ノイズ共分散行列[Q]は、diag[0.0005 0.00005 0.0005]である。計測ノイズ共分散行列[R]は、例えば、200000000000.0である。なお、以下の説明では、コンセンサス係数εは、1以下の正の実数、例えば、0.01である。コンセンサス係数εは、個々の音響処理装置10で算出された予測値が、音響処理装置10間で収束する速度を制御するための係数である。重み係数Wは、シグマ点のうち、全シグマ点間の期待値に係るシグマ点(0次のシグマ点)に対する重み係数を示す。重み係数Wは、−1よりも大きく、1よりも小さい実数、例えば、0.0009である。その他のシグマ点(j次のシグマ点、jは1から2nまでの整数)に対する重み係数Wは、(1−W)/nと与えられる。状態次元数nは、シグマ点の数(2n+1個)を規定する係数である。状態次元数nは、例えば、3である。これらの値は、実行に係るシステム規模、演算精度、音響環境、等の諸条件に応じて変更してよい。
図8は、音源定位処理の例を示すフローチャートである。図8に示す例では、UCKFを用いる場合を例にする。図8に示すステップS201〜S212のうち、ステップS202〜S206の処理が予測に係る処理である。ステップS207〜S212の処理が更新(修正)に係る処理である。ステップS209〜S212の処理は、KCFを用いる場合においても実行される処理である。ステップS202〜S208の処理は、UKFを用いる場合においても実行される処理である。
(ステップS201)音源定位部113は、収音部101から入力された音響信号の強度を算出し、その時点(時刻k)において算出した強度を示す計測行列[z]を構成する。以下の説明では、収音部101からの音響信号から算出された強度を「強度の計測値」と呼んで、予測された強度である「強度の予測値」と区別する。その後、ステップS202に進む。
(ステップS202)音源定位部113は、時刻k−1における状態の修正値[x k−1]と誤差共分散行列の修正値[Pk−1]に基づいてシグマ点を設定する。音源定位部113は、式(8)に示すように、時刻k−1における修正値[x k−1]を、第0次のシグマ点[x k−1]として定める。
Figure 0006488492
音源定位部113は、式(9)に示すように、第1〜n次のシグマ点[x k−1]を設定し、式(10)に示すように第n+1〜2n次のシグマ点[xj+n k−1]を設定する。
Figure 0006488492
Figure 0006488492
式(9)、(10)において、(…)は、行列…の第j列の要素となるベクトルを示す。
その後、ステップS203に進む。
(ステップS203)音源定位部113は、式(11)に示すように時刻k−1における各シグマ点[x k―1]を時間発展させて時刻kにおけるシグマ点の予測値[x ]を算出する。但し、上述したように音源の静止を仮定している場合には、式(10)に示す時刻k−1における各シグマ点[x k―1]を、時刻kにおけるシグマ点の予測値[x ]と定める。その後、ステップS204に進む。
Figure 0006488492
(ステップS204)音源定位部113は、式(12)に示すように時刻kにおけるシグマ点の予測値[xf,j ]の重み付き平均で与えられるシグマ点間の期待値を状態の予測値[x ]として算出する。その後、ステップS205に進む。
Figure 0006488492
(ステップS205)音源定位部113は、式(13)に示すように時刻kにおけるシグマ点の予測値[x ]と、それらの重み付き平均である予測値[x ]との差分と、時刻kにおける処理ノイズ共分散行列[Q]とに基づいて、時刻kにおける誤差共分散行列の予測値[P ]を算出する。
Figure 0006488492
式(13)の右辺第1項は、各シグマ点の予測値[x ]とそれらの期待値[x ]との差分を要素とするベクトルと、当該ベクトルの転置ベクトルとの積である行列に、重み係数Wを乗じて得られた積の総和をとることを示す。即ち、式(13)は、右辺第1項の総和により得られる行列に、時刻k−1における処理ノイズ共分散行列[Qk−1]を加算して時刻kにおける誤差共分散行列の予測値[P ]を算出することを示す。即ち、誤差共分散行列の予測値[P ]は、各シグマ点における状態の予測値[x ]とそれらの期待値[x ]との差の分布を表す行列である。その後、ステップS206に進む。
(ステップS206)音源定位部113は、式(14)、(15)を用いて、時刻kにおける各シグマ点[x ]に対する強度の重み付き平均値を示す計測行列の予測値[z ]を算出する。
Figure 0006488492
式(14)は、式(6)に示す非線形計測モデルを用いて、シグマ点[x ]について計測行列[z ]を算出することを示す。
Figure 0006488492
式(15)は、各シグマ点の計測行列[z ]に重み係数Wを乗じて得られた積の総和をとることにより、シグマ点間の期待値として計測行列の予測値[z ]を算出することを示す。
音源定位部113は、式(16)を用いて、時刻kにおける各シグマ点の計測行列[z ]から計測行列の予測値[z ]の差分と、時刻kにおける計測ノイズの共分散行列[R]とに基づいて共分散行列Cov([z ])を算出する。共分散行列Cov([z ])は、時刻kにおける強度の共分散を示す共分散行列である。
Figure 0006488492
式(16)の右辺第1項は、各シグマ点について算出された計測行列[z ]から、それらの平均値である計測行列の予測値[z ]の差分を要素とする行列と、当該行列の転置行列との積である行列に、重み係数Wを乗じて得られた積の総和をとることを示す。即ち、式(16)は、右辺第1項に示す総和による行列に、さらに計測ノイズの共分散行列[R]を加算して強度の共分散行列Cov([z ])を算出することを示す。その後、ステップS207に進む。
(ステップS207)音源定位部113は、式(17)を用いて、時刻kにおける各シグマ点の予測値[x ]と、各シグマ点の計測行列[z ]との相互共分散(cross covariance)行列Cov([x ],[z ])を算出する。
Figure 0006488492
式(17)は、時刻kにおける各シグマ点の予測値[x ]からそれらの平均値である予測値[x ]の差分と、各シグマ点の計測行列[z ]からそれらの平均値である予測値[z ]の差分の転置行列との積について、シグマ点間で重み係数Wを乗じて得られる行列の総和を相互共分散行列Cov([x ],[z ])として算出することを示す。その後、ステップS208に進む。
(ステップS208)音源定位部113は、式(18)に示すように、共分散行列Cov([z ])の逆行列Cov−1([z ])に相互共分散行列Cov([x ],[z ])を乗算してカルマンゲインKを算出する。その後、ステップS209に進む。
Figure 0006488492
(ステップS209)音源定位部113は、式(19)に示すように、コンセンサスゲイン[C]を、共分散の予測値[P ]を正規化した値に、コンセンサス係数εを乗算して算出する。正規化において、予測値[P ]に、その大きさの指標であるフロベニウスノルム|[P ]|に1を加算した値を除算する。1を加算するのは、零除算を防止するためである。加算される値は、予測値[P ]の大きさよりも十分に小さい正値であれば、必ずしも1でなくともよい。その後、ステップS210に進む。
Figure 0006488492
(ステップS210)音源定位部113が算出した時刻kにおける状態の予測値[xf,l ]は、自装置の位置を基準とするローカル座標系で表されている。そこで、音源定位部113は、当該状態の予測値[xf,l ]を、音響処理システム1全体のグローバル座標系で表された状態の予測値に座標変換する。音源定位部113は、座標変換した状態の予測値を示す状態データを他の音響処理装置10−m(mは、1からLまでの整数であって、自装置を示すl以外の数、以下、他装置)のそれぞれに、通信部121を介して送信する。
また、音源定位部113は、他装置のそれぞれから時刻kにおける状態の予測値を示す状態データを、通信部121を介して受信する。音源定位部113は、当該状態の予測値を、それぞれ自装置のローカル座標系で表された状態の予測値[xf,m ]に座標変換する。
なお、送受信される状態データは、各音響処理装置10において予測された音源の位置を示す。ローカル座標系からグローバル座標系への座標変換において、音源定位部113は、ローカル座標系で表された状態の予測値[xf,l ]が示す音源の座標に、自己定位部112が算出した自装置の位置の座標を加算する。グローバル座標系からローカル座標系への座標変換において、音源定位部113は、グローバル座標系で表された状態の予測値が示す音源の座標に、自己定位部112が算出した自装置の位置の座標を減算する。その後、ステップS211に進む。
(ステップS211)音源定位部113は、式(20)を用いて、自装置における状態の予測値[xf,l ]を、他装置における状態の予測値[xf,m ]と自装置における状態の予測値[xf,l ]との差分に基づいて修正する。
Figure 0006488492
式(20)の右辺第2項は、時刻kにおけるカルマンゲイン[K]に自装置における強度の計測値を示す計測行列[z]と計測行列の予測値[z ]の差分を乗じて、強度の予測誤差に基づく修正量を算出することを示す。式(20)の右辺第3項は、コンセンサスゲイン[C]に、他装置における状態の予測値[xf,m ]と自装置における状態の予測値[xf,l ]の差分の総和を乗じて、装置間における位置の予測値の差に基づく修正量を算出することを示す。つまり、式(20)は、自装置における状態の予測値[xf,l ]に強度の予測誤差に基づく修正量と、装置間における位置の予測値の差に基づく修正量とを加算して、時刻kにおける状態の修正値[xa,l ]を算出することを示す。その後、ステップS212に進む。
(ステップS212)音源定位部113は、式(21)に示すように、時刻kにおける状態の共分散行列の予測値[P ]を、カルマンゲイン[K]と強度の共分散行列Cov([z ])に基づいて修正する。
Figure 0006488492
式(21)は、状態の共分散行列の予測値[P ]を、カルマンゲイン[K]の転置行列[Kに強度の共分散行列Cov([z ])とカルマンゲイン[K]を乗じて得られる行列を減算して、状態の共分散行列の修正値[P]を算出することを示す。
その後、時刻kを時刻k+1に更新し、ステップS201に戻る。
なお、自己定位部112は、自己定位において自装置を基準とする基準音源41−1〜41−Mの位置を推定する際に用いる手法として、EKFに代えて上述したUKF、KCF、UCKFのいずれを用いてもよい。
以上に説明したように、音源定位部113は、例えば、種々のカルマンフィルタを用いることで、対象音源の位置の予測値に基づいて音響信号の強度の予測値を算出する。音源定位部113は、算出した強度の予測値と収音部101が収録した音響信号の強度の計測値との差の大きさを減少させるように検出対象の対象音源の位置を更新する。
この処理により、個々の音響処理装置10で取得された音響信号に基づいて音源定位を行うことができる。個々の音響処理装置10が音源定位部113をそれぞれ備えることで(自己位置推定)、音響処理装置10間で音響信号を送受信する必要がなくなるので、音響処理装置10間における伝送容量を有効に活用することができる。また、マイクロホンアレー処理のように、複数の音響処理装置10間で音響信号を連立して処理する必要がなくなるので、処理量を減少させることができる。
また、音源定位部113は、式(20)に示すように、さらに対象音源の位置の予測値と他の音響処理装置10において収録された音響信号に基づく対象音源の位置の予測値との差の大きさを減少させるように、対象音源の位置の予測値を更新する。
この処理により、音響処理装置毎の音響環境(例えば、騒音レベル、対象音源からの距離、等)、処理特性(収音部101、通信部121の個体差、等)の差異によって異なる誤差を含んだ音源の位置の予測値が相互に収束し、これらの誤差が相殺される。そのため、音源定位の精度が向上させることができる。なお、音源定位部113が音源定位においてUKF又はUCKFを用いる場合には、予測値の分布がシグマ点によりサンプリングされ、個々のシグマ点毎に強度の予測値の算出、対象音源の予測値の算出を行う。そのため、音源定位部113は、式(14)、(15)に示すように対象音源の位置の予測値に基づいて当該音源による音響信号の強度の予測値を推定するという非線形の事象にも適用することができる。また、音源定位部113は、予測値の更新において、これらの予測値の分布を示す共分散行列を算出するので、高次元の行列演算を要しない。そのため、従来のカルマンフィルタよりも演算量を低減することができる。
また、音源定位部113は、式(20)に示すように、対象音源の位置の更新において、他の音響処理装置10において収録された音響信号に基づく対象音源の位置の予測値から、自装置において収録された音響信号に基づく対象音源の位置の予測値の差の総和を算出する。音源定位部113は、式(19)と式(20)の右辺第3項に示すように算出した差と対象音源の位置の予測値の分布を表す誤差共分散行列を正規化した行列との積に、1以下の正のコンセンサス係数εを乗じて更新量を算出する。そして、音源定位部113は、式(20)に示すように算出した更新量を用いて対象音源の位置の予測値を更新する。
この処理により、対象音源の位置に係る予測値の更新量を、個々の音響処理装置で予測された対象音源の位置の予測値の差の総和を、予測値の分布に応じて正規化した値よりも小さくすることができる。そのため、音源定位において対象音源の予測値の発散を防止することができる。
なお、上述した音響処理装置10において、移動体がクアドロコプタである場合を例にしたが、これには限られない。移動体は、飛行体に限らず、地面に沿って移動する物体、例えば、ロボット、車両、等であってもよい。ロボットは、例えば、2本の脚部を備え、脚部を動かしながら移動可能な二足歩行ロボットである。また、ロボットは、車輪と車軸を備え、車軸の周りで車輪を回転させながら移動可能なロボットであってもよい。
また、移動体は、クアドロコプタ以外の飛行体、例えば、ヘリコプタ、グライダ、気球、飛行船等、いかなる形態の飛行体であってもよい。
また、上述した実施形態では、音響処理装置10が音源定位部113を備える場合を例にしたが、これには限られない。音響処理装置10において音源定位部113が省略されていてもよい。音源定位部113が省略されている場合には、その音響処理装置10は、主装置になることはないため、使用判定部111は、自装置が主装置であるか否かを判定する処理を省略してもよい。
また、音響処理装置10が音源定位部113を備える代わりに、情報処理装置20が音源定位部113を備えてもよい。その場合には、各音響処理装置10が、自装置の位置情報と音響信号を情報処理装置20に送信してもよいし、1台の音響処理装置10が主装置として各音響処理装置10の位置情報と音響信号を集約し、集約した位置情報と音響信号を情報処理装置20に送信してもよい。
また、情報処理装置20が音源定位部113を備える場合であっても、音源定位部113は、EKF、UKF、UKCF等のように、推定した位置に基づいて音響信号の強度を予測し、予測した強度と計測した強度との差の大きさを減少させる手法も用いてもよい。その場合には、音源定位部113は、各音響処理装置10から受信した音響信号に基づいてそれぞれの音響処理装置10を基準とした音源位置を算出する。音源定位部113は、それぞれの音響処理装置10から受信した位置情報を用いて、ローカル座標系からグローバル座標系への座標変換、又はグローバル座標系からローカル座標系への座標変換を行う。
なお、上述した音響処理装置10の一部、例えば、使用判定部111、自己定位部112、及び音源定位部113をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、音響処理装置10に内蔵されたコンピュータシステムであって、CPU(Central Processing Unit)等の制御機器の他、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、上述した実施形態における使用判定部111、自己定位部112、及び音源定位部113の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。使用判定部111、自己定位部112、及び音源定位部113の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
1…音響処理システム、10(10−1〜10−N)…音響処理装置、101…収音部、102…動作検出部、111…使用判定部、112…自己定位部、113…音源定位部、121…通信部、20…情報処理装置、41(41−1〜41−M)…基準音源

Claims (11)

  1. 音響信号を収録する収音部と、
    自装置の動作を検出する動作検出部と、
    前記音響信号と前記動作に基づいて自装置の位置を推定する自己定位部と、
    予め定めた基準音源から到来した基準信号の強度に基づいて前記音響信号を検出対象の対象音源の位置を検出する音源定位部において使用するか否かを判定する使用判定部と、
    を備える音響処理装置。
  2. 前記音源定位部をさらに備え、
    前記音源定位部は、前記自己定位部が推定した前記自装置である主装置の位置を示す主装置位置情報、他の音響処理装置である従装置から前記従装置の位置を示す従装置位置情報、前記収音部が収録した音響信号である主装置音響信号および前記従装置から当該従装置において収録された音響信号である従装置音響信号を取得し、
    前記主装置音響信号ならびに前記従装置音響信号と、前記主装置位置情報ならびに前記従装置位置情報に基づいて前記対象音源の位置を検出する請求項1に記載の音響処理装置。
  3. 前記使用判定部は、前記主装置音響信号と前記主装置位置情報を音源定位に使用すると判定した時期に基づいて、自装置が主装置であることを示す主装置通知情報を他の音響処理装置に無線で送信し、前記他の音響処理装置から前記従装置音響信号と前記従装置位置情報を無線で受信する請求項2に記載の音響処理装置。
  4. 前記使用判定部が他の音響処理装置から自装置が主装置であることを示す主装置通知情報を受信した場合、前記従装置音響信号と前記従装置位置情報を前記他の音響処理装置に無線で送信する請求項2に記載の音響処理装置。
  5. 前記音源定位部は、前記対象音源の位置の予測値に基づいて推定された前記主装置音響信号の強度の予測値と前記主装置音響信号の強度の計測値との差の大きさを減少させるように前記対象音源の位置を更新する請求項2または請求項3に記載の音響処理装置。
  6. 前記音源定位部は、前記対象音源の位置の予測値と前記従装置音響信号に基づく前記対象音源の位置の予測値との差の大きさを減少させるように前記対象音源の位置を更新する請求項5に記載の音響処理装置。
  7. 前記音源定位部は、前記対象音源の位置の更新において、前記差の総和と前記位置の予測値の分布を表す共分散行列を正規化した行列との積に、1以下の正の係数を乗じて更新量を算出し、前記更新量を用いて前記位置の予測値を更新する請求項6に記載の音響処理装置。
  8. 移動可能な移動体に備えられた請求項1から請求項7のいずれかに記載の音響処理装置。
  9. 前記移動体は、飛行体である請求項8に記載の音響処理装置。
  10. 前記移動体は、ロボットである請求項8に記載の音響処理装置。
  11. 音響処理装置における音響処理方法であって、
    収音部が収録した音響信号と動作検出部が検出した前記音響処理装置の動作に基づいて自装置の位置を推定する自己定位過程と、
    予め定めた基準音源から到来した基準信号の強度に基づいて前記音響信号を検出対象の対象音源の位置を検出する音源定位部において使用するか否かを判定する使用判定過程と、を有する音響処理方法。
JP2015023308A 2014-08-01 2015-02-09 音響処理装置及び音響処理方法 Active JP6488492B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015023308A JP6488492B2 (ja) 2014-08-01 2015-02-09 音響処理装置及び音響処理方法
US14/808,444 US9720068B2 (en) 2014-08-01 2015-07-24 Acoustic processing device and acoustic processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014158083 2014-08-01
JP2014158083 2014-08-01
JP2015023308A JP6488492B2 (ja) 2014-08-01 2015-02-09 音響処理装置及び音響処理方法

Publications (2)

Publication Number Publication Date
JP2016035443A JP2016035443A (ja) 2016-03-17
JP6488492B2 true JP6488492B2 (ja) 2019-03-27

Family

ID=55179805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023308A Active JP6488492B2 (ja) 2014-08-01 2015-02-09 音響処理装置及び音響処理方法

Country Status (2)

Country Link
US (1) US9720068B2 (ja)
JP (1) JP6488492B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488492B2 (ja) * 2014-08-01 2019-03-27 本田技研工業株式会社 音響処理装置及び音響処理方法
JP2019041362A (ja) 2017-08-29 2019-03-14 株式会社東芝 マイクロフォン連携装置
CN114279557B (zh) * 2022-03-02 2022-05-17 山东卓朗检测股份有限公司 一种分布式声学检测设备及其检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06324139A (ja) * 1993-05-17 1994-11-25 Oki Electric Ind Co Ltd 音源位置推定装置
JP3433369B2 (ja) * 1997-03-07 2003-08-04 株式会社沖コムテック 話者位置推定方法
JP2005321225A (ja) * 2004-05-06 2005-11-17 Oki Electric Ind Co Ltd 水中音源装置、音響測位装置及び音響測位システム
US7924655B2 (en) * 2007-01-16 2011-04-12 Microsoft Corp. Energy-based sound source localization and gain normalization
US9086475B2 (en) * 2013-01-22 2015-07-21 Google Inc. Self-localization for a set of microphones
JP6488492B2 (ja) * 2014-08-01 2019-03-27 本田技研工業株式会社 音響処理装置及び音響処理方法

Also Published As

Publication number Publication date
US9720068B2 (en) 2017-08-01
US20160033615A1 (en) 2016-02-04
JP2016035443A (ja) 2016-03-17

Similar Documents

Publication Publication Date Title
Mao et al. Rnn-based room scale hand motion tracking
Mackey et al. Improving BLE beacon proximity estimation accuracy through Bayesian filtering
US9763035B2 (en) System, method and computer program for anonymous localization
KR100938047B1 (ko) 시스템 교정 방법, 위치 탐색 시스템 및 컴퓨터
JP5952692B2 (ja) 音源方向推定装置、音響処理システム、音源方向推定方法、及び音源方向推定プログラム
CN108141837B (zh) 用于跟踪的装置和方法
KR20170004556A (ko) 실내 환경에서 이동 로봇의 리로케이션 방법 및 장치
JP4934441B2 (ja) 無線ノード位置推定方法、システム、及びその処理装置
Salari et al. Mobility-aided wireless sensor network localization via semidefinite programming
Jin et al. SparseTrack: Enhancing indoor pedestrian tracking with sparse infrastructure support
JP6488492B2 (ja) 音響処理装置及び音響処理方法
EP1509782A2 (en) Low-cost, low-power geolocation system
JP2021501307A (ja) ワイヤレス信号のフィルタ処理された統計パラメータに基づく動き検出
Mukhopadhyay et al. Performance evaluation of localization techniques in wireless sensor networks using RSSI and LQI
Sadhukhan et al. An efficient clustering with robust outlier mitigation for Wi-Fi fingerprint based indoor positioning
Abd El Aziz Source localization using TDOA and FDOA measurements based on modified cuckoo search algorithm
WO2019240771A1 (en) User device positioning
Tuba et al. Node localization in ad hoc wireless sensor networks using fireworks algorithm
Kumar et al. Target detection and localization methods using compartmental model for internet of things
JP2015197417A (ja) 位置推定装置、方法、及びプログラム
KR20190021957A (ko) 실내에서 이동하는 단말의 측위 장치 및 그 방법
US20160314680A1 (en) Detecting Physical Separation of Portable Devices
JP6292566B2 (ja) 推定方法およびそれを利用した推定装置
CN106028450B (zh) 室内定位方法及设备
Sun et al. Lidaus: Localization of iot device via anchor uav slam

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180129

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R150 Certificate of patent or registration of utility model

Ref document number: 6488492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150