JP5452158B2 - 音響監視システム、及び音声集音システム - Google Patents

音響監視システム、及び音声集音システム Download PDF

Info

Publication number
JP5452158B2
JP5452158B2 JP2009233525A JP2009233525A JP5452158B2 JP 5452158 B2 JP5452158 B2 JP 5452158B2 JP 2009233525 A JP2009233525 A JP 2009233525A JP 2009233525 A JP2009233525 A JP 2009233525A JP 5452158 B2 JP5452158 B2 JP 5452158B2
Authority
JP
Japan
Prior art keywords
sound source
microphone array
microphone
sound
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009233525A
Other languages
English (en)
Other versions
JP2011080868A (ja
JP2011080868A5 (ja
Inventor
真人 戸上
洋平 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009233525A priority Critical patent/JP5452158B2/ja
Priority to CN201010298095.1A priority patent/CN102036158B/zh
Priority to US12/893,114 priority patent/US8682675B2/en
Publication of JP2011080868A publication Critical patent/JP2011080868A/ja
Publication of JP2011080868A5 publication Critical patent/JP2011080868A5/ja
Application granted granted Critical
Publication of JP5452158B2 publication Critical patent/JP5452158B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers

Description

本発明は、音響監視システム、特に複数の機器が動作する環境において、機器の異常動作を音響的に識別する音響監視、音声集音技術に関する。
これまで工場内の機械の異常音監視や、室内の異常監視を目的として、カメラ画像や音響情報による監視システムが用いられてきた。このシステムでは、監視対象を予め設定しておき、その監視対象しか監視することができなかった(例えば、特許文献1参照)。しかし、今後、安心・安全に対する社会ニーズが高まる中、より網羅的な音響監視システム、音声集音システムが求められている。
特開2005−328410号公報
従来の監視システムでは、監視対象のスペクトル構造の変化などをモニタリングして異常かどうかを判定していたが、監視対象以外の音源が多数存在する環境では、ノイズの問題から監視精度が劣化するという問題があった。また、工場など多数の機器が動作する環境において、初期設定を簡単に行うことが可能な監視システムが必要であった。
本発明の目的は、工場などの複数の機器が動作する環境において、その機器の異常動作を音響的に識別することが可能な音響監視システム、音声集音システムを提供することにある。
上記の目的を達成するため、本発明においては、複数のマイクロホンを有するマイクロホンアレイと処理部を有する音響監視システムであって、処理部は、マイクロホンアレイの入力信号から、音源方向のヒストグラムの時間変化を検出し、その変化検出結果に基き、音場に異常が生じたかどうかを判定する音響監視システムを提供する。
また、上記の目的を達成するため、本発明においては、複数のマイクロホンを有するマイクロホンアレイと処理部と記憶部とを有する音響監視システムであって、記憶部はマイクロホンに関するデータを記憶し、処理部は、マイクロホンに関するデータに基づき、監視対象の音源近傍に存在するマイクロホンアレイを探索し、探索したマイクロホンアレイのマイクロホンに関するデータに基づき、監視対象の音源の音場監視機能を選択する音響監視システムを提供する。
更に、上記の目的を達成するため、本発明においては、複数のマイクロホンを有するマイクロホンアレイと処理部とを有する音声集音システムであって、
処理部は、マイクロホンアレイの入力信号から音源毎のヒストグラムを生成し、生成したヒストグラムのばらつきに基づき、音源の向き検出を行う構成の音声集音システムを提供する。
すなわち、本発明においては、音源方向のヒストグラムによる変化検出機能により、複数の音源が存在する環境において音響的な変化を高精度に抽出可能とする。さらに監視対象毎に最近傍のマイクロホンアレイを用いて、マイクロホンアレイの指向特性やマイクロホン配置の情報から適切な音場監視機能を自動的に選択することにより、効率的に音響情報を処理することを可能とする。
本発明の構成によれば、複数の音源が存在する環境でも監視が可能な保守監視システムを提供できる。また、大規模な工場施設において、自動的に音場監視機能を選択可能であり、作業効率が向上する。
第1の実施例に係る音響監視システムのハードウェア全体の構成を示す図である。 第1の実施例のシステムの拠点毎のハードウェア構成を示す図である。 第1の実施例に係る、工場内におけるハードウェア配置例を示す図である。 第1の実施例の中央サーバにおけるソフトウェア機能ブロック構成を示す図である。 第1の実施例の中央サーバにける異常音監視処理のソフトウェアブロック構成を示す図である。 第1の実施例における異常音監視機能の選択処理フローを示す図である。 第1の実施例における異常音監視機能の処理フローを示す図である。 第1の実施例における、音源方向ヒストグラムの変化抽出による異常判定例を模式的に示す図である。 第1の実施例に係る、音源方向推定処理を有する異常音検出のブロック構成を示す図である。 第1の実施例に係る、音源方向推定処理を有しない異常音検出のブロック構成を示す図である。 第1の実施例に係るマイクロホンデータベースであるマイクロホン属性情報テーブルの一構成を示す図である。 第1の実施例に係るAD変換装置データベースであるAD変換装置属性情報テーブルの一構成を示す図である。 第1の実施例に係る、異常発見画面のGUIの一構成例を示す図である。 第1の実施例に係る、音源ヒストグラムのエントロピーに基づく異常変化抽出のブロック構成を示す図である。 第1の実施例に係る、音源毎ヒストグラム生成のブロック構成を示す図である。 第1の実施例に係る、アレイ横断特徴量抽出のブロック構成を示す図である。 第1の実施例に係る、変化検出のブロック構成を示す図である。 第1の実施例に係る、音源向き検出のブロック構成を示す図である。 第1の実施例に係る、音源方向検出、音源向き検出の処理フローの一例を示す図である。 第2の実施例に係る、音源向き検出をビデオ会議システムに用いる場合を説明するための図である。 第3の実施例に係る、音源向き検出を会議音声録音に用いる場合を説明するための図である。 第2の実施例に係る、音源向き検出をビデオ会議システムに用いたハードウェア構成の一例を示す図である。 第2の実施例に係る、音源向き検出をビデオ会議システムに用いた使用シーンを示す模式図である。
以下、本発明の具体的な実施形態を図面に従い説明する。なお、本明細書において、「手段」を「機能」、「部」あるいは「プログラム」と呼ぶ場合がある。例えば、「音場監視手段」が「音場監視機能」、「音場監視部」や「音場監視プログラム」と表現される。
図1に第1の実施例に係る保守・監視システムの全体構成を示す。工場などの環境内に埋め込んだN個の複数のマイクロホン素子を有するマイクロホンアレイ101−1〜Nからなる入力部で取り込んだ入力信号である音響情報は、信号処理部である計算装置102−1〜Nで、デジタル信号処理を施されて、異常情報が抽出される。抽出された異常情報は、中央サーバ103に送信され、中央サーバ103で各マイクロホンアレイ101−1〜Nが抽出した異常情報を統合的に処理(異常情報抽出処理)した後、各監視員が閲覧する表示部としての監視画面104−1〜S(Sは監視画面の数)に情報が送信される。計算装置102−1〜Nでは、各拠点のマイクロホンアレイ101−1〜Nで取り込んだアナログの音圧値をデジタル信号に変換した後、デジタル信号処理を施す。
図2に計算装置102−1〜N及び中央サーバ103の具体的なハードウェア構成を201、206として示す。これらは、基本的には通常の処理部である中央演算装置(Central Processing Unit:CPU)と記憶部であるメモリを備えたコンピュータと同等の構成を有している。各計算装置201では、入力された複数チャンネルのアナログの音圧値を多チャンネルAD変換機202で多チャンネルのデジタル音声波形に変換される。変換されたデジタル音声波形は中央演算装置203が中央サーバ206に送信する。中央サーバ206において行われる、上述の異常情報抽出処理を計算装置201の処理部である中央演算装置203で行っても良い。そこで、本明細書において、計算装置102−1〜N及び中央サーバ103の中央演算装置(CPU)を纏めて、処理部と呼ぶ場合がある点に留意されたい。
中央演算装置203が実行する各種プログラムは、不揮発性メモリ205に記憶され、実行時に読みだされ、揮発性メモリ204に展開される。プログラム実行時に必要なワークメモリは揮発性メモリ204上に確保される。また、中央サーバ206においても、処理部である中央演算装置207にて、各種プログラムを実行する。中央演算装置207が実行する各種プログラムは、不揮発性メモリ209に記憶され、実行時に読みだされ、揮発性メモリ208に展開される。プログラム実行時に必要なワークメモリは揮発性メモリ204上に確保される。中央サーバ206の中央演算装置207もしくは、計算装置201の中央演算装置203が行う信号処理は、扱うアナログ音圧値を収録したマイクロホンアレイが保守・監視を行う環境内のどこに設置されているか、及びその収録情報からどの機器のどの範囲を保守・監視するかによって処理が異なる。
図1及び図2はマイクロホンアレイ1つにつき計算装置1つが1対1対応する構成となっているが、1対1対応に限定する必要はなく、2つ以上のマイクロホンアレイの情報を一つの計算装置で処理するという構成を取っても良い。さらに一つのAD変換装置が2つ以上のマイクロホンアレイの情報を処理することにより、これらマイクロホンアレイの情報を同期処理することが可能になる。このようなことから、一つのAD変換装置が2つ以上のマイクロホンアレイの情報を処理する構成を取っても良い。また、マイクロホンアレイ1つの情報を複数の計算装置で処理する構成を取ることにより、処理量が一つの計算装置で処理しきれない場合に対応しても良い。
図3に、本実施例において、マイクロホンアレイの具体的な設置例及び機器設備との相対的な位置関係により中央演算装置で行う処理が異なることの例を示す。図1のマイクロホンアレイ101−1〜Nに対応する、マイクロホンアレイ301−1〜8は、環境内の様々な位置に点在し配置され、機器設備302−1〜4の動作を監視するものとする。ここで、機器設備302−1を監視する目的で、マイクロホンアレイ301−7やマイクロホンアレイ301−4を用いることは適切とは言えない。これらの音響情報入力部としてのマイクロホンアレイには、機器設備302−3や機器設備302−4が発する音響情報が混入し、機器設備302−1の音を高いSNR(Signal Noise Ratio:聞きたい音と雑音との比率)で収録することが困難であるからである。この場合、マイクロホンアレイ301−1やマイクロホンアレイ301−2、またマイクロホンアレイ301−6を用いることが適切であると考えられる。これらのマイクロホンアレイ全てを機器設備302−1の音響監視に用いても良いし、これらのマイクロホンアレイのうち最近傍のマイクロホンアレイを機器設備302−1の音響監視に用いても良い。また、機器設備302−1のある特定の部位の音響情報を監視したい場合に、機器設備302−1とマイクロホンアレイを結ぶ直線上に遮蔽物(例えば機器設備302−1自体)が存在する場合は、そのようなマイクロホンアレイが最近傍マイクロホンアレイであったとしても使用しないという構成を取っても良い。
図4は、本実施例の中央サーバ206内の処理部において実行される、監視対象機器毎に監視方法を選択するプログラムのソフトウェアブロック構成を示した図である。監視対象選択部401は、監視員もしくは監視拠点の監視責任者が監視対象の機器設備を選択する手段を提供する。たとえば、一般的なコンピュータのグラフィカルユーザーインターフェース(GUI)を用いて、監視拠点の平面図を表示部であるディスプレイ上に表示し、ユーザーに監視対象機器設備をマウスクリックなどの操作で指定するような構成を取っても良いし、監視対象の機器設備がリスト化されたリストボックスの中から、監視対象の機器設備を選択するといった構成を取っても良い。監視対象選択部401は、これらGUIを用いた方法で選択された監視対象の機器設備から、監視対象地点である、監視環境内における監視対象の相対的な座標を得るよう動作する。
マイクロホンアレイ選択部402は、監視対象選択部401で得た監視対象の相対的な座標(監視対象地点)と、事前に登録してあるマイクロホンアレイデータベースとを比較して、監視に用いるマイクロホンアレイを選択するよう動作する。監視方法選択部403は、選択したマイクロホンアレイの配置場所、及び指向特性などに基づき、適切な音場監視機能を選択するよう動作する。
そして、各マイクロホンアレイ302−1〜8から中央サーバ206に音響情報を送信した後、選択した音場監視手段を中央サーバ206内で実行するような構成を取っても良いし、選択した音場監視手段に基づき、各マイクロホンアレイのデータを扱う計算装置201に音場監視手段についての情報を送信し、各計算装置上の処理部で、音場監視手段を実行可能なようにしても良い。この場合、各計算装置が用いるマイクロホンアレイのみでその計算装置上に展開された音場監視手段が実行可能である必要がある。つまり、他の計算装置が有するマイクロホンアレイの情報を利用する必要がある場合は、その音場監視手段は中央サーバの処理部で実行することが望ましい。一方、音場監視手段がある特定の計算装置が扱うマイクロホンアレイデータのみを使って監視する場合は、その計算装置内で音場監視手段を実行し、監視結果のみを中央サーバに送信する構成を取りことで、中央サーバに情報を送信する際のネットワークコストを減らすことができるため、望ましい。
事前に登録されるマイクロホンアレイデータベースは少なくともそのマイクロホンアレイを一意に識別するためのマイクロホン識別子(ID)及び監視対象の監視環境内における相対的な座標値と、マイクロホンアレイを構成するマイクロホンの指向性の有無、及びマイクロホンアレイがつながっているボードであるAD変換装置の識別子(ID)、及びそのAD変換装置でマイクロホンアレイが接続されているチャンネル番号の属性が記録されているものとする。なお、このテーブルは中央サーバ206の記憶部を構成する揮発性メモリ208や不揮発性メモリ209上に記録される。
図11に本実施例におけるマイクロホンアレイデータベース(DB)、即ちマイクロホン属性情報テーブルの一例を示す。1101〜1105はそれぞれ、上述のマイクロホンID、座標値、指向性、AD変換装置、チャンネル列を示す。マイクロホンアレイが単体のマイクで構成されている場合は、“チャンネル”列1105にそのマイクがつながっているAD変換装置202のチャンネル番号を記す。また、マイクロホンアレイが複数のマイクロホンで構成されている場合は、“チャンネル”列1105にそれらマイクロホンアレイがつながっているチャンネル番号列を記す。また、それぞれのマイクロホンアレイがつながっているAD変換装置は、必ずしも同一のAD変換装置である必要はない。
同様に、それぞれのAD変換装置の特性をデータベース(DB)に記憶しておくものとする。AD変換装置のデータベースは、少なくとも、そのAD変換装置を一意に識別するためのAD変換装置ID、及びそのAD変換装置がつながっているPCのIPアドレス、及びそのAD変換装置の各チャンネルが時間同期しているかどうかを表す“同期”の3つの属性を持つこととする。またそのAD変換装置のデータを取得するために、プログラムのポート番号を属性として持っておいても良い。
図12にこのAD変換装置のデータベースであるAD変換装置属性情報テーブルの一例を示す。同図において、1201〜1203はそれぞれ、上述のAD変換装置ID、そのAD変換装置がつながっているPCのIPアドレス、及びそのAD変換装置の各チャンネルが時間同期しているかどうかを表す“同期”の3つの属性を示す。時間同期しているかどうかについては、チャンネル間の同期ずれとAD変換機のサンプリング周期の比率が予め定める閾値以下であればよい。なお、このテーブルも中央サーバ206の記憶部に記憶される。
図5は、第1の実施例において、各音場監視手段の音声取り込みを各拠点の計算装置で行い、ネットワーク経由で中央サーバに送信した音声データを中央サーバ内で処理する際のソフトウェアブロックを記した図である。マイクロホンアレイ101−1〜Nに対応するマイクロホンアレイ501−1〜Nで取り込んだ各マイクロホンアレイの音圧値は、各計算装置内(各拠点)で動作する波形取り込み部502−1〜Nで処理され、ネットワーク503を介して、103、206に対応する中央サーバに送信される。中央サーバにおいては、その中央演算装置207のプログラムとして実行される拠点毎異常音監視部504が、拠点毎に取り込んだ波形を処理し、異常状態の検出処理を行う。その後、監視結果を104−1〜Sに対応する各監視画面に向けて送信する。
図6は、中央サーバで実行されるプログラムである、図4に示したマイクロホンアレイ選択部402及び監視方法選択部403における具体的な処理フローを記した図である。上述のように、監視対象選択部401は与えられた監視対象設備から、監視対象地点を同定する。ここで、監視対象地点は、その監視環境内のローカル座標系で(Xl,Yl,Zl)と表わされると仮定する。近傍マイクロホン探索601では、N個のマイクロホンアレイ毎に、監視対象地点との距離を計算する。ここで、(Xi,Yi,Zi)(iはマイクロホンアレイを識別するためのインデックス)は各マイクロホンアレイの中心座標系とする。これは、前述したマイクロホンアレイデータベースの座標値1102から取得可能な情報である。
距離計算は3次元ユークリッド距離di=(Xl−Xi)^2+(Yl−Yi)^2+(Zl−Zi)^2に基づき行う。diが最小になるようなマイクロホンアレイを近傍マイクロホンアレイとして選択しても良いし、diが予め定める閾値以下となるようなマイクロホンアレイを複数選択しても良い。ここでは、diが最小になるようなマイクロホンアレイを近傍マイクロホンアレイとして選択する場合の処理フローを示す。複数のマイクロホンアレイを用いた場合の音場監視手段については後述する。またマイクロホンアレイを構成するマイクロホン数は2素子とする。3素子以上の場合については後述する。
図6のAD同期チェックを行うAD同期?602は、図12に示したAD変換装置データベースを参照した上で、選択されたマイクロホンアレイを収録するためのAD変換装置がチャンネル間で同期がとれているかどうかを確認する。チャンネル間で同期が取れている場合は、位相差に基づく高分解能な音源方向推定が可能である。また同期が取れていない場合は、位相差に基づく音源方向推定は実行できない。この場合は、マイクロホンアレイを構成するマイクロホンの音量比率が予め既知であるかどうかを確か、音量比率が既知である場合は、振幅比率などを用いた低分解能な音源方向推定を実行することになる。音量比率が未知である場合は、音源方向推定を行わない音場監視手段を選択することになる。
そこで、マイク間の音量比率をDB探索603では、二つのマイクロホン間の感度比率がDB内に記録されているかどうか探索する。予め、二つのマイクロホン間の感度比率を測定している場合は、それを中央サーバ206の不揮発性メモリ209にデータベース化して格納しておく。DB内に存在?604では、マイクロホン間の音量比率がDB内に蓄えられていた場合は、その音量比率に基づく音源定位を行うよう音場監視手段を選択する(613)。
この音量比率に基づく音源定位について以下説明する。同一の音圧レベルの信号がマイクロホンアレイを構成するマイクロホン1、2に入力された時の、マイクロホン1の音圧レベルをP1[dB]、マイクロホン2の音圧レベルをP2[dB]とする。入力信号のマイクロホン1の音圧レベルをX1[dB]、マイクロホン2の音圧レベルをX2[dB]とする。この時、N1=X1−P1、N2=X2−P2がそれぞれ正規化された音圧レベルである。この正規化された音圧レベルの差(N1−N2)が予め定める閾値Th1以上の場合、その時の音源位置をマイクロホン1に近い位置と判断する。逆に差(N1−N2)が予め定める閾値Th2以下の場合、その音源位置をマイクロホン2に近い位置と判断する。それ以外のケースについては、音源位置をマイクロホン1とマイクロホン2の中間と判断する。なお、入力信号に一般的なフーリエ変換に基づく短時間周波数分解を施し、時間・周波数成分毎にこのような判断を行っても良い。各判断結果から、「マイクロホン1に近いと判断されたケース」、「マイクロホン2に近いと判断されたケース」「マイクロホン1とマイクロホン2の中間と判断されたケース」の3つのケース毎にヒストグラムを生成する。このヒストグラムを元に、異常音発生の監視を行う。
一方、DB内に存在?604において、マイクロホン間の音量比率がDB内に蓄えられていなかった場合は、ヒストグラムを作ることは行なわない音場監視手段を選択する(614)。この場合の音場監視手段については、後で述べる。
図6のAD同期?602で、AD変換装置が同期していると判断された場合は、用いるマイクロホンアレイを構成するマイクロホンが指向性か無指向性かを指向性?605で判断する。これは図11のマイクロホンアレイデータベースの指向性1103を参照することで実行可能である。指向性と判断された場合は、次にそのマイクロホンアレイの仮想音源方向毎のステアリングベクトルが予め得られているかどうかを確認する(ステアリングベクトル探索607)。マイクロホンアレイのインパルス応答を予め収録するなどして、予め各音源方向(例えば、マイクロホンアレイから見て正面、側方、後方など)のマイクロホン間位相差が得られている場合は、得られた情報からステアリングベクトルを生成し、中央サーバ206内の不揮発性メモリ209に蓄えておけばよい。ステアリングベクトル探索607におけるDB内に存在?608は、ステアリングベクトルがメモリ中に存在しているかどうかで処理を分岐する。DB内に存在している場合(yes)は、ステアリングベクトルを用いた音源方向推定を行う(609)。ここで、xm(f,τ)をm番目のマイクロホンの周波数f、フレームτの信号と仮定する。これはm番目のマイクロホン信号に短時間フーリエ変換を施すことで取得可能である。各マイクロホンの信号を要素に持つベクトルを数1で定義する。
Figure 0005452158
また音源方向pのステアリングベクトルを数2で定義する。
Figure 0005452158
ここで、Tp,m(f)は、音源からマイクロホンmまで音が伝達する際の遅延時間、αm(f)は音源からマイクロホンmまで音が伝達する際の減衰率とする。遅延時間及び減衰率は予め各音源方向からのインパルス応答を計測することで求めることができる。またステアリングベクトルa(f)を大きさが1になるようにa(f)=a(f)/|a(f)|と正規化して用いることにする。
ステアリングベクトルを用いた時間・周波数毎の音源方向の推定は数3に基づき行う。
Figure 0005452158
Pminは推定した音源方向を表すインデックスとする。入力信号とステアリングベクトルの内積が最大となるような方向がその時間・周波数の音源方向となる。ステアリングベクトルを用いた音場監視手段では、時間周波数毎に求めた音源方向Pminのヒストグラムを算出する。ヒストグラムの変化から異常が生じたかどうかを判断する。一方、ステアリングベクトル探索607で、ステアリングベクトルがDB内に存在しない場合は、音源方向ヒストグラムを用いない、方向推定を伴わない音場監視手段を選択して終了する(610)。
指向性?605で、指向性が無いと判断された場合(no)は、次にマイクロホンの間隔が予め定めるD[m]以下であるかを確認する(間隔がDm以下?606)。D[m]以下である場合は、マイクロホン間の位相差に基づく音源方向推定方式を用いた音場監視手段を選択する(611)。ここで、位相差に基づく音源方向推定方式では、入力信号X(f,τ)から音源方向θ(f,τ)を数4で求める。
Figure 0005452158
上記の式において、dはマイク間隔とする。cは音速とする。求めた音源方向θ(f,τ)のヒストグラムを算出したヒストグラムの変化から異常が生じたかどうかの判断を行う。また、音源方向推定は、時間フレーム毎にGCC−PHAT(Generalized Cross Correlation with Phase Transform)法などの全周波数を用いた音源方向推定法により時間フレーム毎の音源方向θ(τ)を求めても良い。
ここで、音源方向を適当な間隔で離散化してヒストグラムを作っても良い。間隔がDm以下?606での判断の結果、マイクロホンの間隔が予め定めるD[m]以上である場合(no)は、位相差に基づく音源方向推定が困難であると考え、マイクロホン間の音量比率に基づく音源方向推定を実行する音場監視手段を選択する(612)。各周波数毎に、マイクロホン1の入力信号とマイクロホン2の音圧比率r[dB]が予め定める閾値T1[dB]より大きい場合、その周波数成分はマイクロホン1に近い音源の成分と判断し、T2[dB]より小さい場合、その周波数成分はマイクロホン2に近い音源の成分と判断する。それ以外の場合はその周波数成分はマイクロホン1とマイクロホン2の中間に存在する成分とする。このような判定を各時間周波数毎に行った後、各判断結果から、「マイクロホン1に近いと判断されたケース」、「マイクロホン2に近いと判断されたケース」「マイクロホン1とマイクロホン2の中間と判断されたケース」の3つのケース毎にヒストグラムを生成する。このヒストグラムを元に、異常音発生の監視を行う。以上説明した図6の処理フローの流れで、監視対象地点毎の音場監視手段が定まる。
続いて、マイクロホンアレイを構成するマイクロホンの素子数が3以上の場合において説明する。マイク間の音量比率により音源方向を求める場合は、音量の大きい上位二つのマイクロホンを抽出し、そのマイクロホン間の音量比率が予め定まる閾知T1[dB]を超えている場合は、抽出したマイクロホン1に近い方向に音源があると判断する。また音量比率がT2[dB]を下回る場合は、抽出したマイクロホン2に近い方向に音源があると判断する。それ以外の場合は、抽出したマイクロホン1と抽出したマイクロホン2に近い方向に音源があると判断する。マイクロホンiに近いか、マイクロホンi及びマイクロホンjの中間といった音源方向推定結果が各時間周波数毎に得られる。この推定結果からヒストグラムを算出して音響監視に用いる。ステアリングベクトルを用いた音源方向推定の場合は、要素数が3以上のステアリングベクトルと要素数が3以上の入力信号との内積計算を行って方向推定を行う。
位相差を用いた音源方向推定の場合は、SRP−PHAT法(Steered Response Power - Phase Alignment Transform)や、SPIRE法(Stepwise Phase Difference Restoration法、例えば、M. Togami and Y. Obuchi, “Stepwise Phase Difference Restoration Method for DOA Estimation of Multiple Sources”, IEICE Trans. on Fundamentals, vol. E91-A, no. 11, 2008を参照)などを用いて音源方向推定を行う。
図7は、本実施例の中央サーバ206の処理部における全拠点の音響監視のフレーム毎の処理フローを示した図である。変数初期化701では、まず処理する拠点のインデックス(i)を0に初期化する。判定702では、全ての拠点を処理し終えたか判定する。ここでNは拠点数である。処理し終えている場合は、終了する。それ以外の場合は、次にその拠点の音場監視手段が音源方向推定機能を有するかどうか判定703する。音源方向推定を有すると判定した場合、音源方向推定704を行う。ここで、音源方向推定は、音場監視手段選択で選択した方法に基づき(位相差を用いる方法、音量比率に基づく方法、ステアリングベクトルを用いる方法)を選択して行う。音源方向を周波数毎に推定した後、推定結果から、ヒストグラムや入力信号のスペクトルの変化抽出705を行う。また、音源方向推定機能を有しない場合、ステアリングベクトルの時間変化、入力信号スペクトルの変化抽出707を行う。変化あり?706では、ヒストグラムや入力信号のスペクトルの著しい時間変化があったかどうか判定する。時間変化があったと判定された場合は、変化があった音源方向の成分を音源分離710する。音源分離710は、最小分散ビームフォーマ法(例えば、M. Togami, Y. Obuchi, and A. Amano, “Automatic Speech Recognition of Human-Symbiotic Robot EMIEW,” in “Human-Robot Interaction”, pp. 395-404, I-tech Education and Publishing,2007を参照)などを用いて実行する。音源分離は変化があったと判定された前後数秒のデータを抽出する。そして抽出成分を各監視地点に送信708した後、次の拠点に処理を移す(709)。変化がなかったと判定された場合は、何も行わずに次の拠点に処理を移す(709)。
図8は、本実施例における音源方向ヒストグラムの変化抽出のイメージを記したものである。同図上段右に示す変化後の方向ヒストグラム802から、同図上段左に示す変化前のヒストグラム801を引き算することで、同図下段に示すように変化があった音源方向803を知ることができる。
図9は図7の処理フローにおける、音源方向推定機能を有する際の、ヒストグラム、スペクトルの変化抽出705のより詳細な処理フローを示した図である。推定して得られた音源方向ヒストグラムからヒストグラム距離計算902では、メモリに蓄積された過去の音源方向クラスタ901の情報を用いて、過去のクラスタと得られた音源方向ヒストグラムの距離計算を行う。距離計算は数5に基づき行う。
Figure 0005452158
ここで、Qcはc番目のクラスタのセントロイドとする。Hは得られた音源方向ヒストグラムとする。Hのi番目の要素が得られたヒストグラムのi番目の要素の頻度とする。Simが1に近い程、過去のクラスタとの差が小さいということになる。過去のどのクラスタとも遠い場合は、Simは0に近い値を取る。Hとして各フレーム毎に得られたヒストグラムを用いても良いし、各フレーム毎に得られたヒストグラムの時間方法へ移動平均したものを用いても良い。距離閾値更新903では、Simを時間方向に移動平均を取った値AveSimを元にTh=AveSim+(1-AveSim)*βでThを求める。オンラインクラスタリング905では、得られた音源方向ヒストグラムに最も近いクラスタのインデックスCminを数6で求める。
Figure 0005452158
さらにQcminを数7で更新する。
Figure 0005452158
ここで、λは過去の情報の忘却係数とする。そして、更新したQcminを過去の音源方向クラスタ901に書き込む。スペクトル距離計算907は、得られたマイクロホン入力信号から時間方向のスペクトルS(τ)を数8で求める。
Figure 0005452158
Si(τ)は数9で定義される。
Figure 0005452158
ここでΩiは、i番目のサブバンドに含まれる周波数の集合とする。W(f)は周波数fのサブバンド内での重みとする。ここで、各サブバンドの周波数集合は、対数周波数軸で等間隔になるように分割するものとする。W(f)は各サブバンドの中心周波数を頂点とする三角窓とする。得られたS(τ)と過去のスペクトログラムクラスタ906に含まれる各クラスタのセントロイドとの距離計算を行い、セントロイドとの類似度Simspectralを数10で算出する。
Figure 0005452158
続いて、図9の距離閾値更新908では、Simspectralを時間方向に移動平均を取った値AveSimspectralを元に、Thspectral=AveSimspectral+(1-AveSimspectral)*βでThspectralを求める。
オンラインクラスタリング909では、Cminを数11で求め、数12でKcminを更新する。
Figure 0005452158
Figure 0005452158
変化検出904では、AveSimがThを上回ったか、またはAveSimspectralがThspectralを上回ったら、変化が検出されたと判定する。それ以外の場合、変化が検出されなかったと判定する。
図10に、音源方向推定を伴わない音場監視手段における変化検出の詳細ブロック構成を示す。スペクトル距離計算1002、距離閾値更新1003、オンラインクラスタリング1006、過去のスペクトログラムクラスタ1007は図9のブロックと同様の処理を行う。ステアリングベクトル距離計算1001は、入力されたマイクロホン入力信号から数13でN(f,τ)で正規化した入力信号を求める。
Figure 0005452158
そして数14で過去のステアリングベクトルクラスタ1009内のクラスタのセントロイドとの距離計算を行い、類似度Simsteeringを得る。
Figure 0005452158
距離閾値更新1004では、Simsteeringを時間方向に移動平均を取った値AveSimsteeringを元にThsteering=AveSimsteering+(1-AveSimsteering)*βでThsteeringを求める。オンラインクラスタリング1008では、数15でCmin算出し、数16でセントロイドを更新する。
Figure 0005452158
Figure 0005452158
変化検出1005では、AveSimsteeringがThsteeringを上回ったか、またはAveSimspectralがThspectralを上回ったら、変化が検出されたと判定する。それ以外の場合、変化が検出されなかったと判定する。
図13は、本実施例における、図3に示した工場平面図に対応する監視画面の構成例の一例を示した図である。音場監視手段により発見された異常変化は音源方向推定により発生位置が特定されているため、画面上に異常発生位置1301〜1304を図示したり、「異常発見」文字列を表示するなどの方法によりユーザーに提示することが可能である。さらに「異常発見」文字列等をクリックすることでその異常の音を分離し、ユーザーが聴くことができるような構成を取っても良い。変化成分の音データは、聞きたい方向が定まれば、聞きたい方向を指定する最小分散ビームフォーマを施すことにより抽出することが可能である。
図14は、複数のマイクロホンを用いた異常変化抽出ブロックを示した図である。各マイクロホンアレイの入力信号から、マイクロホンアレイ毎にヒストグラムを生成する(音源毎ヒストグラム生成1401)。音源毎ヒストグラム生成1401では、入力信号を一旦音源毎に分離した後、その音源毎にヒストグラムを生成するような構成を取る。音源統合1404は、各マイクロホンアレイ毎に分離された信号を類似度を元に統合する。まずマイクロホンアレイ1で分離された各音源と、マイクロホンアレイnで分離された各音源との対応関係を明らかにする。
数17によりn(m2)を求める。
Figure 0005452158
ここで、n(m2)はマイクロホンアレイ1の音源のインデックスを入力として、その音源がマイクロホンアレイnのn(m2)[m]番目の音源と同じであることを表すインデックスとする。Cn(m,m2[m])は、マイクロホンアレイ1のm番目の音源とマイクロホンアレイnのm2[m]番目の音源との相互相関値を計算する関数とする。Sn(m)をマイクロホンアレイnのm番目の音源の時間領域信号(時間インデックスtは省略)として、相互相関値を計算する関数は、数18のように定義される。
Figure 0005452158
音源統合では、マイクロホンアレイ毎に、m2[m]番目の音源がm番目の音源となるようにインデックスを変換する。アレイ横断特徴量算出1402では、各音源毎に、複数のアレイを用いて、音源の発生位置の特定及び音源の発生向きを推定する。音源とマイクロホンアレイとを結ぶ直線上に遮蔽物があるような場合は、音源から出る信号はマイクロホンアレイに直接は届かない。音源の発生向きの推定によって遮蔽物が直線上にないようなマイクロホンアレイを選択することができる。変化検出1403では、音源の発生位置や向きの変化及びスペクトル構造の変化を同定し、変化があった場合に、表示部の監視画面にそのことを表示する。
図15は、音源毎ヒストグラム生成の詳細ブロック構成を示した図である。音源毎ヒストグラム生成1500は、音源分離1501と音源方向推定1502、音源方向ヒストグラム生成1503の3つのブロックから構成される。これら3つのブロックはいずれも各マイクロホンアレイ毎に行う。音源分離1501では、一般的な独立成分分析を用いて音源毎に音を分離する。音源方向推定1501〜Mは、分離された各音源毎の音源方向を推定する。音源方向の推定は、音場監視手段選択で行ったのと同様にマイクロホンアレイの属性情報に基づいて選択する。音源方向ヒストグラム作成1503では、推定音源方向のヒストグラムを音源毎に作成する。
図16に、アレイ横断特徴量算出ブロックの詳細構成を記す。アレイ横断特徴量抽出1600は、方向ヒストグラムエントロピー計算1602とピーク算出1603及びピーク・エントロピーベクトル化1604からなる。アレイ横断特徴量抽出ブロックは、各音源毎に行う。音源mについて、マイクロホンアレイnで算出した方向ヒストグラムをHnと記載する。HnのエントロピーEntを数19で算出する。
Figure 0005452158
Hnは大きさ1で正規化されているものとする。Hn(i)はi番目の要素の頻度を表すものとする。Entが大きい程推定した音源方向が様々な方向に散らばっていることを意味する。遮蔽物などでマイクロホンアレイまで音が届かない場合は、Entが大きい値を取る傾向がある。ピーク算出1603−1〜NまではヒストグラムHnのピーク要素を同定し、そのピーク要素の音源方向を返す。
また、音源の向きの検出については、ピーク・エントロピーベクトルの他、数20、及び数21で定義されるヒストグラムの分散V(Hn)、またはその分散値のー1倍や、数22で定義される尖度をエントロピーEntの代わりに用いても良い。
Figure 0005452158
Figure 0005452158
Figure 0005452158
なお、これらヒストグラムのエントロピー、分散、尖度等を「ヒストグラムのばらつき」と総称することができる。
ピーク・エントロピーベクトル化1604では、各マイクロホンアレイで算出した音源方向とエントロピーを要素に持つ特徴量ベクトルVmを算出する。Vmはm番目の音源の特徴量ベクトルとする。
図17は複数のマイクロホンアレイで算出した音源の特徴量ベクトルを元に変化検出を行うブロック構成を示したものである。変化検出1700は、スペクトル距離計算1707、距離閾値更新1708、オンラインクラスタリング1709、過去のスペクトログラムクラスタ1706は図9のブロックと同様の処理を行う。距離計算1702は、次に示す数23で過去のピーク・エントロピーベクトルクラスタ1701内のクラスタのセントロイドとの距離計算を行い、類似度Simentropyを得る。
Figure 0005452158
距離閾値更新1703では、Simentropyを時間方向に移動平均を取った値AveSimentropyを元にThentropy=AveSimentropy+(1-AveSimentropy)*βでThentropyを求める。オンラインクラスタリング1708では、数24でCminを求めた後、数25でセントロイドを更新する。
Figure 0005452158
Figure 0005452158
変化検出1704では、AveSimentropyがThentropyを上回ったか、またはAveSimentropyがThentropyを上回ったら、変化が検出されたと判定する。それ以外の場合、変化が検出されなかったと判定する。
図18は、マイクロホンアレイ入力信号から音源の向き検出を行うためのブロック構成を示した図である。音源毎ヒストグラム生成1801、アレイ横断特徴量抽出1802は、図14と同一の処理を行う。音源向き検出1803では、音源毎に算出したヒストグラムのばらつきを示すピーク・エントロピーベクトルから音源の位置と音源の向きを検出する。なお、ピーク・エントロピーベクトルは一例であり、先に説明したヒストグラムのばらつきを示す、ヒストグラムの分散や尖度などを用いることができる。
図19は音源向き検出1803の具体的な処理構成を示した図である。この処理フローは音源毎に実行する。変数初期化1901は、マイクロホンアレイのインデックスi,j及びコスト関数Cminを初期化する。判定1902では、最後のマイクロホンアレイを処理したかどうかを判定する。処理していた場合は、変数更新処理1904に進む。処理していない場合は、音源方向・向きコストCtmp計算1906に移る。さらに判定1905でjが最後のマイクロホンアレイを処理し終わっている場合は、処理を終了し、コスト関数が最小となるようなマイクロホンアレイのインデックスi,j及び音源の位置と向きを出力する。判定1905でjが最後のマイクロホンアレイを処理し終わっていない場合は、音源方向・向きコストCtmp計算1906に移る。音源方向・向きコストCtmp計算1906では、数26で定義されるコストCtmpを計算する。
Figure 0005452158
CtmpのXは、音源のグローバルな座標を表す。θiはi番目のマイクロホンアレイのローカルな座標系における音源の音源方向とし、θjはj番目のマイクロホンアレイのローカルな座標系における音源の音源方向とする。関数gは、マイクロホンアレイのローカルな座標系における音源の音源方向をマイクロホンアレイの中心座標の情報を利用して、グローバルな座標系上の1つの直線に変換するための関数とする。関数fは点と直線の最小距離を求める関数とする。λは一つ目の引数に比例するような関数とする。マイクロホンアレイと音源との距離が遠ざかるにつれて、残響の影響などで音源方向のばらつきが大きくなることを補正する項である。λとしては、λ(x)=xやλ(x)=√xなどが考えられる。判定1907では、求めたコストCtmpが最小コストCminを下回っているか判定し、下回っている場合、CminをCtmpで置き換えるとともに、音源方向推定及び音源向き推定に用いるマイクロホンアレイのインデックスiminとjminを書き換える。変数更新1903で、変数を更新し、次のマイクロホンアレイの処理に移る。最小コストを与えるマイクロホンアレイで計算した音源方向を出力する音源方向の情報とするとともに、マイクロホンアレイiminとjminのうちλ(x)で正規化したエントロピーが大きいマイクロホンアレイの方向を音源向きと判定する。
第2の実施例は、音源向き検出を用いて、複数のディスプレイを有するビデオ会議システムに関するものである。
本実施例のビデオ会議システムのハードウェア構成を図22に示す。各会議拠点に、複数のマイクロホンから構成されるマイクロホンアレイ2201が設置されている。マイクロホンアレイ2201で取り込んだ音声信号は、多チャンネルA/D変換機2202で、アナログ信号からデジタル信号に変換される。変換されたデジタル信号は,中央演算装置2203に送られる。中央演算装置2203では,デジタル信号から会議拠点毎の発話者の音声のみを抽出する。スピーカ2209からは、ネットワーク2208を介して遠隔の会議拠点からデジタル信号として送信されてきた音声波形を再生する。再生音はマイクロホンアレイ2201で受音される。中央演算装置2203では,発話者の音声のみを抽出する際に、音響エコーキャンセラ技術を用いて,スピーカ再生音成分を除去するような構成を取る。また,中央演算装置2203では,発話者の音声の音源方向や音源向きの情報を抽出し、スピーカ2209から再生する遠隔拠点の再生音を切り替えるような構成を取る。カメラ2206で取り込んだ会議拠点の画像データは中央演算装置2203に取り込まれた後,遠隔拠点に送信され、遠隔拠点のディスプレイ2207に表示される。中央演算装置2203の処理に必要な各種プログラムは不揮発性メモリ2205に保存しておき、プログラム動作に必要なワークメモリは揮発性メモリ2204上に確保するような構成を取る。
図20は本実施例の中央演算装置2203内での音源向き検出及びその向き検出結果を使った音源向きのディスプレイ同定の処理ブロックを示した図である。
マイクロホンアレイで取り込んだ入力信号を元に音源向き検出2001で図18で示した音源向きの検出処理を行う。音源向きのディスプレイ同定2002では、音源向きの方向に存在するディスプレイを特定する。ビデオ会議表示ディスプレイ選択2003では、音源向きの方向に存在するディスプレイをビデオ会議時の遠隔地の画像を表示する画像表示ディスプレイとして選択する。このような構成を取ることで、ユーザーが発話した方向のディスプレイに遠隔地の情報を常に認識することができる。
この情報に基づき、出力スピーカ音制御2004では、ユーザーが発話した方向のディスプレイに表示された遠隔地の音声のみを出力スピーカから再生するようにスピーカ再生音を切り替える。また,ユーザーが発話した方向のディスプレイに表示された遠隔地の音声が大きく再生されるように制御するような構成を取っても良い。音声送信先制御2005では、ユーザーが発話した方向のディスプレイに表示された遠隔地にのみ発話音声が送信されるように制御する。また、その遠隔地に発話音声が大きく流れるように送信制御しても良い。上記の制御を行うことで,複数の拠点とつながるビデオ会議システムにおいて、ユーザーが会話している拠点と会話しやすくなるように制御することが可能となる。
図23に本実施例の使用シーンを示す。本使用シーンでは三拠点が同時に繋がっており,この図では,そのうちの一拠点(近端拠点)の使用シーンを示している。近端拠点では、遠隔拠点1及び遠隔拠点2それぞれのカメラで写した画像がディスプレイ2302−1、及びディスプレイ2302−2上に表示されている。また,マイクロホンアレイ2301−1及びマイクロホンアレイ2301−2で取り込んだ音声データから、近端拠点の人の音源向きが推定される。例えば、近端拠点の人がディスプレイ2302−1の方向をむいて発話している場合には、スピーカ再生音はディスプレイ2302−1上に表示されている拠点の人の発話が強調されて再生され、かつ近端拠点の声はその拠点で大きい音量で再生される。このような構成を取ることにより、近端拠点の人は自分が会話したい拠点とより親密に会話することが可能となる。
図21は第3の実施例に係り、音源向き検出を音声録音装置、音声集音システムに応用した例のソフトウェアブロック構成を示した図である。音源向き検出2101は、図18で示した音源向きの検出処理を行う。音源向きのマイクロホンアレイ同定2102では、音源が向いているマイクロホンアレイを求める。同定したマイクロホンの信号を録音2103では、同定したマイクロホンアレイで収録した音声を図示を省略した録音装置で録音する。このような構成を取ることで、発話者が向いている方向のマイクロホンアレイで収録することが可能となり、よりクリアな音声を録音することが可能となる。
本発明は、工場などの複数の機器が動作する環境において、その機器の異常動作を音響的に識別する音響監視、音声集音技術として有用である。
101…マイクロホンアレイ、102…計算装置、103…中央サーバ、104…監視画面、201…計算装置、202…多チャンネルA/D変換機、203…中央演算装置、204…揮発性メモリ、205…不揮発性メモリ、301…マイクロホンアレイ、302…機器設備、401…監視対象選択部、402…マイクロホンアレイ選択部、403…監視方法選択部、501…マイクロホンアレイ、502…波形取り込み部、503…ネットワーク、504…拠点毎異常音監視部、601…近傍マイクロホン探索、602…AD同期チェック、603…音量比率のDB探索、604…DB内に存在するかチェック、605…指向性の有無の確認、606…マイク間隔の確認、607…ステアリングベクトル探索、608…DB内に存在するかチェック、701…変数初期化、702…変数チェック、703…音源方向推定機能あるかどうかのチェック、704…音源方向推定、705…スペクトルの変化抽出、706…変化あるかどうかの確認、707…スペクトルの変化抽出、708…抽出成分を送信する、709…変数の更新、710…変化成分の音源分離、 901…過去の音源方向クラスタのデータ、902…ヒストグラムの距離計算、903…距離閾値の更新、904…変化検出、905…オンラインクラスタリング、906…過去のスペクトログラムクラスタのデータ、907…スペクトル距離の計算、908…距離閾値の更新、1001…ステアリングベクトルの距離計算、1002…スペクトル距離の計算、 1003…距離閾値の更新、 1004…距離閾値の更新、1005…変化検出、1006…オンラインクラスタリング、1007…過去のスペクトログラムクラスタのデータ、1008…オンラインクラスタリング、1009…過去のステアリングベクトルクラスタのデータ、1401…音源毎ヒストグラム生成、1402…アレイ横断特徴量算出、 1403…変化検出、 1404…音源統合、1500…音源毎ヒストグラム生成、1501…音源分離、1502…音源方向推定、 1503…音源方向ヒストグラム生成、 1600…アレイ横断特徴量算出、1601…方向ヒストグラム、1602…方向ヒストグラムエントロピー計算、 1603…ピーク算出、 1604…ピーク・エントロピーのベクトル化処理、1700…変化検出、1701…過去のピーク・エントロピークラスタのデータ、1702…距離計算、1703…距離閾値の更新、1704…変化検出、1705…オンラインクラスタリング、1706…過去のスペクトログラムクラスタのデータ、1707…スペクトル距離の計算、1708…距離閾値の更新、1801…音源毎ヒストグラム生成、1802…アレイ横断特徴量算出、1803…音源向き検出、1901…変数初期化、1902…変数判定、1903…変数の更新、1904…変数の更新、1905…変数チェック、1906…音源方向・向きコスト計算、1907…変数チェック、1908…変数更新、2001…音源向き検出、2002…音源向きのディスプレイの同定、2003…ビデオ会議表示ディスプレイ、2004…出力スピーカ音制御、2005…音声信号送信先制御、2101…音源向き検出、2102…音源向きのマイクロホンアレイの同定、2103…同定したマイクロホンの信号を録音する、 2201…マイクロホンアレイ、2202…多チャンネルA/D変換機、2203…カメラ、2204…揮発性メモリ、2205…不揮発性メモリ、2206…カメラ、2207…ディスプレイ、2208…ネットワーク、2209…スピーカ、2301-1…マイクロホンアレイ、2301-2…マイクロホンアレイ、2302-1…ディスプレイ、2302-2…ディスプレイ。

Claims (10)

  1. 複数のマイクロホンを有するマイクロホンアレイと処理部と記憶部とを有する音響監視システムであって、
    前記マイクロホンに接続されたAD変換装置を更に備え、
    前記記憶部は、
    前記マイクロホンに関するデータであって、前記マイクロホンアレイの配置データと、前記AD変換装置のAD同期データとを記憶し、
    前記処理部は、
    前記配置データに基づき、監視対象の音源近傍に存在する前記マイクロホンアレイを探索し、
    探索した前記マイクロホンアレイの前記AD同期データに基づき、前記監視対象の音源の音場監視機能を選択する、
    ことを特徴とする音響監視システム。
  2. 請求項1記載の音響監視システムであって、
    前記記憶部に記憶された前記マイクロホンに関するデータは前記マイクロホンの指向性データを含み、
    前記処理部は、
    探索した前記マイクロホンアレイの前記AD同期データが同期を示すとき、前記指向性データに基づき前記音場監視機能を選定する、
    こと特徴とする音響監視システム。
  3. 請求項2記載の音響監視システムであって、
    前記マイクロホンに関するデータは、前記マイクロホンの間隔データを含み、
    前記処理部は、
    探索した前記マイクロホンアレイの前記指向性データが無指向性の場合、前記間隔データに基づき前記音場監視機能を選定する、
    ことを特徴とする音響監視システム。
  4. 請求項3記載の音響監視システムであって、
    前記処理部は、
    探索した前記マイクロホンアレイの前記間隔データが所定値以下の場合、前記音場監視機能として、位相差による方向推定機能を備えた音場監視機能を選択する、
    ことを特徴とする音響監視システム。
  5. 請求項3記載の音響監視システムであって、
    前記処理部は、
    探索した前記マイクロホンアレイの前記間隔データが所定値以下でない場合、前記音場監視機能として、前記マイクロホン間の音量比率による音場監視機能を選択する、
    ことを特徴とする音響監視システム。
  6. 複数のマイクロホンを有するマイクロホンアレイと処理部と記憶部とを有する音響集音システムであって、
    前記マイクロホンに接続されたAD変換装置を更に備え、
    前記記憶部は、
    前記マイクロホンに関するデータであって、前記マイクロホンアレイの配置データと、前記AD変換装置のAD同期データとを記憶し、
    前記処理部は、
    前記配置データに基づき、監視対象の音源近傍に存在する前記マイクロホンアレイを探索し、
    探索した前記マイクロホンアレイの前記AD同期データに基づき、前記監視対象の音源の音場監視機能を選択し、
    前記マイクロホンアレイの入力信号から音源毎のヒストグラムを生成し、生成した前記ヒストグラムのばらつきに基づき、前記音源の向き検出を行う、
    ことを特徴とする音響集音システム。
  7. 請求項6記載の音声集音システムであって、
    前記処理部は、
    生成した音源毎の前記ヒストグラムに基づき、マイクロホンアレイ横断特徴量を算出し、算出した前記マイクロホンアレイ横断特徴量により前記音源向きを検出する、
    ことを特徴とする音声集音システム。
  8. 請求項7記載の音声集音システムであって、
    前記処理部は、
    音源毎の前記ヒストグラムから方向ヒストグラムエントロピーを計算することにより、前記マイクロホンアレイ横断特徴量を算出する、
    ことを特徴とする音声集音システム。
  9. 請求項6記載の音声集音システムであって、
    複数の表示部を更に備え、
    前記処理部は、
    検出された前記音源向きの方向に存在する前記表示部を特定し、特定した前記表示部に画像を表示するよう制御する、
    ことを特徴とする音声集音システム。
  10. 請求項6記載の音声集音システムであって、
    前記処理部は、
    検出された前記音源向きに基づき、前記音源が向いている前記マイクロホンアレイを特定し、特定した前記マイクロホンアレイの入力信号を録音するよう制御する、
    ことを特徴とする音声集音システム。
JP2009233525A 2009-10-07 2009-10-07 音響監視システム、及び音声集音システム Active JP5452158B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009233525A JP5452158B2 (ja) 2009-10-07 2009-10-07 音響監視システム、及び音声集音システム
CN201010298095.1A CN102036158B (zh) 2009-10-07 2010-09-28 声响监视系统及声音集音系统
US12/893,114 US8682675B2 (en) 2009-10-07 2010-09-29 Sound monitoring system for sound field selection based on stored microphone data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009233525A JP5452158B2 (ja) 2009-10-07 2009-10-07 音響監視システム、及び音声集音システム

Publications (3)

Publication Number Publication Date
JP2011080868A JP2011080868A (ja) 2011-04-21
JP2011080868A5 JP2011080868A5 (ja) 2012-08-16
JP5452158B2 true JP5452158B2 (ja) 2014-03-26

Family

ID=43823872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009233525A Active JP5452158B2 (ja) 2009-10-07 2009-10-07 音響監視システム、及び音声集音システム

Country Status (3)

Country Link
US (1) US8682675B2 (ja)
JP (1) JP5452158B2 (ja)
CN (1) CN102036158B (ja)

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010106734A1 (ja) * 2009-03-18 2010-09-23 日本電気株式会社 音声信号処理装置
WO2011106797A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US11275482B2 (en) * 2010-02-28 2022-03-15 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
KR101750338B1 (ko) * 2010-09-13 2017-06-23 삼성전자주식회사 마이크의 빔포밍 수행 방법 및 장치
KR101715779B1 (ko) * 2010-11-09 2017-03-13 삼성전자주식회사 음원 신호 처리 장치 및 그 방법
US9171551B2 (en) * 2011-01-14 2015-10-27 GM Global Technology Operations LLC Unified microphone pre-processing system and method
JP5974901B2 (ja) * 2011-02-01 2016-08-23 日本電気株式会社 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム
DE102011012573B4 (de) * 2011-02-26 2021-09-16 Paragon Ag Sprachbedienvorrichtung für Kraftfahrzeuge und Verfahren zur Auswahl eines Mikrofons für den Betrieb einer Sprachbedienvorrichtung
US8175297B1 (en) 2011-07-06 2012-05-08 Google Inc. Ad hoc sensor arrays
JP5289517B2 (ja) * 2011-07-28 2013-09-11 株式会社半導体理工学研究センター センサネットワークシステムとその通信方法
US9025779B2 (en) * 2011-08-08 2015-05-05 Cisco Technology, Inc. System and method for using endpoints to provide sound monitoring
JP5513456B2 (ja) * 2011-09-15 2014-06-04 株式会社日立製作所 エレベータの異常診断装置および方法
JP2013119446A (ja) * 2011-12-06 2013-06-17 Hitachi Ltd エレベータ遠隔監視装置
KR101794733B1 (ko) 2011-12-26 2017-11-09 한국전자통신연구원 음장 변화 패턴 분석을 통한 보안 시스템 및 그 방법
DE102012211154B4 (de) * 2012-06-28 2019-02-14 Robert Bosch Gmbh Überwachungssystem, Freiflächenüberwachung sowie Verfahren zur Überwachung eines Überwachungsbereichs
CN104380063B (zh) * 2012-07-25 2017-04-12 株式会社日立制作所 异常音检测系统
CN103712681B (zh) * 2012-09-29 2016-03-30 北京航天发射技术研究所 一种运载火箭发射燃气流噪声监测系统
US9247367B2 (en) * 2012-10-31 2016-01-26 International Business Machines Corporation Management system with acoustical measurement for monitoring noise levels
KR101706133B1 (ko) * 2012-11-12 2017-02-13 야마하 가부시키가이샤 신호 처리 시스템 및 신호 처리 방법
US9232185B2 (en) * 2012-11-20 2016-01-05 Clearone Communications, Inc. Audio conferencing system for all-in-one displays
CN103905942B (zh) * 2012-12-26 2018-08-10 联想(北京)有限公司 声音数据采集的方法及电子设备
WO2014115290A1 (ja) * 2013-01-25 2014-07-31 株式会社日立製作所 信号処理装置・音響処理システム
JP6278294B2 (ja) * 2013-03-11 2018-02-14 大学共同利用機関法人情報・システム研究機構 音声信号処理装置及び方法
JP5924295B2 (ja) * 2013-03-12 2016-05-25 沖電気工業株式会社 パラメータ推定装置、パラメータ推定プログラム、機器決定システム及び機器決定プログラム
JP6198432B2 (ja) * 2013-04-09 2017-09-20 小島プレス工業株式会社 音声認識制御装置
JP5958833B2 (ja) * 2013-06-24 2016-08-02 パナソニックIpマネジメント株式会社 指向性制御システム
US10372407B2 (en) * 2013-08-19 2019-08-06 Avaya Inc. Pairwise audio capture device selection
JP6433903B2 (ja) * 2013-08-29 2018-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識方法及び音声認識装置
EP3058756A1 (en) * 2013-10-16 2016-08-24 Harman International Industries, Incorporated Method for arranging microphones
US9451360B2 (en) * 2014-01-14 2016-09-20 Cisco Technology, Inc. Muting a sound source with an array of microphones
US10206034B2 (en) * 2014-03-12 2019-02-12 Sony Corporation Sound field collecting apparatus and method, sound field reproducing apparatus and method
EP2927885A1 (en) * 2014-03-31 2015-10-07 Panasonic Corporation Sound processing apparatus, sound processing system and sound processing method
CN104244137B (zh) * 2014-09-30 2017-11-17 广东欧珀移动通信有限公司 一种录像过程中提升远景录音效果的方法及系统
CN105989852A (zh) 2015-02-16 2016-10-05 杜比实验室特许公司 分离音频源
US9554207B2 (en) 2015-04-30 2017-01-24 Shure Acquisition Holdings, Inc. Offset cartridge microphones
US9565493B2 (en) 2015-04-30 2017-02-07 Shure Acquisition Holdings, Inc. Array microphone system and method of assembling the same
US9710460B2 (en) * 2015-06-10 2017-07-18 International Business Machines Corporation Open microphone perpetual conversation analysis
JP6682222B2 (ja) * 2015-09-24 2020-04-15 キヤノン株式会社 検知装置及びその制御方法、コンピュータプログラム
JP6638370B2 (ja) * 2015-12-15 2020-01-29 オムロン株式会社 制御装置、監視システム、制御プログラムおよび記録媒体
JP2017117371A (ja) * 2015-12-25 2017-06-29 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御方法、制御装置およびプログラム
US10063967B2 (en) 2016-03-22 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Sound collecting device and sound collecting method
JP6538002B2 (ja) * 2016-05-18 2019-07-03 日本電信電話株式会社 目的音集音装置、目的音集音方法、プログラム、記録媒体
KR101842777B1 (ko) 2016-07-26 2018-03-27 라인 가부시키가이샤 음질 개선 방법 및 시스템
DE102016215522A1 (de) * 2016-08-18 2018-02-22 Weber Maschinenbau Gmbh Breidenbach Lebensmittelverarbeitungsvorrichtung mit Mikrofonarray
WO2018052776A1 (en) 2016-09-13 2018-03-22 Walmart Apollo, Llc System and methods for identifying an action of a forklift based on sound detection
US10656266B2 (en) 2016-09-13 2020-05-19 Walmart Apollo, Llc System and methods for estimating storage capacity and identifying actions based on sound detection
CN106840372B (zh) * 2016-12-22 2019-09-03 徐勇 多通道异响记录回放方法及记录回放装置
US10367948B2 (en) 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US10440469B2 (en) 2017-01-27 2019-10-08 Shure Acquisitions Holdings, Inc. Array microphone module and system
JP6737398B2 (ja) * 2017-03-24 2020-08-05 ヤマハ株式会社 重要単語抽出装置、関連会議抽出システム、及び重要単語抽出方法
JP6345327B1 (ja) * 2017-09-07 2018-06-20 ヤフー株式会社 音声抽出装置、音声抽出方法および音声抽出プログラム
DE102017219235A1 (de) * 2017-10-26 2019-05-02 Siemens Aktiengesellschaft Verfahren und System zum akustischen Überwachen einer Maschine
CN110663021B (zh) * 2017-11-06 2024-02-02 谷歌有限责任公司 关注出席用户的方法和系统
JP7010136B2 (ja) 2018-05-11 2022-01-26 富士通株式会社 発声方向判定プログラム、発声方向判定方法、及び、発声方向判定装置
EP3804356A1 (en) 2018-06-01 2021-04-14 Shure Acquisition Holdings, Inc. Pattern-forming microphone array
US11297423B2 (en) 2018-06-15 2022-04-05 Shure Acquisition Holdings, Inc. Endfire linear array microphone
CN110858883A (zh) * 2018-08-24 2020-03-03 深圳市冠旭电子股份有限公司 一种智能音箱及智能音箱使用的方法
US10523170B1 (en) * 2018-09-05 2019-12-31 Amazon Technologies, Inc. Audio signal processing for motion detection
US10659787B1 (en) * 2018-09-20 2020-05-19 Amazon Technologies, Inc. Enhanced compression of video data
CN112889296A (zh) 2018-09-20 2021-06-01 舒尔获得控股公司 用于阵列麦克风的可调整的波瓣形状
US11109133B2 (en) 2018-09-21 2021-08-31 Shure Acquisition Holdings, Inc. Array microphone module and system
JP7245034B2 (ja) * 2018-11-27 2023-03-23 キヤノン株式会社 信号処理装置、信号処理方法およびプログラム
JP7250547B2 (ja) * 2019-02-05 2023-04-03 本田技研工業株式会社 エージェントシステム、情報処理装置、情報処理方法、およびプログラム
WO2020181553A1 (zh) * 2019-03-14 2020-09-17 西门子股份公司 用于识别工厂中处于异常状态的生产设备的方法和装置
EP3942842A1 (en) 2019-03-21 2022-01-26 Shure Acquisition Holdings, Inc. Housings and associated design features for ceiling array microphones
US11558693B2 (en) 2019-03-21 2023-01-17 Shure Acquisition Holdings, Inc. Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality
JP2022526761A (ja) 2019-03-21 2022-05-26 シュアー アクイジッション ホールディングス インコーポレイテッド 阻止機能を伴うビーム形成マイクロフォンローブの自動集束、領域内自動集束、および自動配置
US10783902B1 (en) * 2019-04-18 2020-09-22 Hitachi, Ltd. Adaptive acoustic sensing method and system
CN110035372B (zh) * 2019-04-24 2021-01-26 广州视源电子科技股份有限公司 扩声系统的输出控制方法、装置、扩声系统及计算机设备
US11445294B2 (en) 2019-05-23 2022-09-13 Shure Acquisition Holdings, Inc. Steerable speaker array, system, and method for the same
EP3977449A1 (en) 2019-05-31 2022-04-06 Shure Acquisition Holdings, Inc. Low latency automixer integrated with voice and noise activity detection
WO2021041275A1 (en) 2019-08-23 2021-03-04 Shore Acquisition Holdings, Inc. Two-dimensional microphone array with improved directivity
CN110602625B (zh) * 2019-09-06 2021-07-23 中国安全生产科学研究院 集群音频警报系统巡检方法及装置
CN110769358B (zh) * 2019-09-25 2021-04-13 云知声智能科技股份有限公司 麦克风监控方法及装置
CN110631687A (zh) * 2019-09-29 2019-12-31 苏州思必驰信息科技有限公司 无线振动采集器
WO2021068167A1 (en) * 2019-10-10 2021-04-15 Shenzhen Voxtech Co., Ltd. Audio device
KR20210087249A (ko) * 2020-01-02 2021-07-12 엘지전자 주식회사 촬영장치 및 그 제어방법
US11552611B2 (en) 2020-02-07 2023-01-10 Shure Acquisition Holdings, Inc. System and method for automatic adjustment of reference gain
US11706562B2 (en) 2020-05-29 2023-07-18 Shure Acquisition Holdings, Inc. Transducer steering and configuration systems and methods using a local positioning system
CN114502926A (zh) * 2020-06-09 2022-05-13 东芝三菱电机产业系统株式会社 金属材料加工设备的异响观测系统
EP3961247A1 (en) * 2020-08-24 2022-03-02 Nokia Technologies Oy An apparatus, method and computer program for analysing audio environments
CN112907910A (zh) * 2021-01-18 2021-06-04 天津创通科技股份有限公司 一种机房用安防报警系统
JP2024505068A (ja) 2021-01-28 2024-02-02 シュアー アクイジッション ホールディングス インコーポレイテッド ハイブリッドオーディオビーム形成システム
WO2022269789A1 (ja) * 2021-06-23 2022-12-29 日本電気株式会社 波動信号処理装置、波動信号処理方法、および記録媒体

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58162066U (ja) * 1982-04-26 1983-10-28 日本電気株式会社 目標移動方位表示装置
JPH05347069A (ja) * 1992-06-16 1993-12-27 Matsushita Electric Ind Co Ltd オーディオ・ミキシング装置
JPH07162532A (ja) * 1993-12-07 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> 多地点間通信会議コミュニケーション支援装置
JPH1063967A (ja) * 1996-08-23 1998-03-06 Meidensha Corp 監視システム
JPH11331827A (ja) * 1998-05-12 1999-11-30 Fujitsu Ltd テレビカメラ装置
JP3863306B2 (ja) * 1998-10-28 2006-12-27 富士通株式会社 マイクロホンアレイ装置
JP4244416B2 (ja) * 1998-10-30 2009-03-25 ソニー株式会社 情報処理装置および方法、並びに記録媒体
EP1081985A3 (en) * 1999-09-01 2006-03-22 Northrop Grumman Corporation Microphone array processing system for noisy multipath environments
JP4410378B2 (ja) * 2000-04-14 2010-02-03 三菱電機株式会社 音声認識方法および装置
WO2004021031A1 (ja) * 2002-08-30 2004-03-11 Nittobo Acoustic Engineering Co.,Ltd. 音源探査システム
US7068797B2 (en) * 2003-05-20 2006-06-27 Sony Ericsson Mobile Communications Ab Microphone circuits having adjustable directivity patterns for reducing loudspeaker feedback and methods of operating the same
US7394907B2 (en) * 2003-06-16 2008-07-01 Microsoft Corporation System and process for sound source localization using microphone array beamsteering
EP1524879B1 (en) * 2003-06-30 2014-05-07 Nuance Communications, Inc. Handsfree system for use in a vehicle
US8126155B2 (en) * 2003-07-02 2012-02-28 Fuji Xerox Co., Ltd. Remote audio device management system
DE10334396B3 (de) * 2003-07-28 2004-10-21 Siemens Audiologische Technik Gmbh Hörhilfegerät sowie Verfahren zum Betrieb eines Hörhilfegerätes mit einem Mikrofonsystem, bei dem unterschiedliche Richtcharakteristiken einstellbar sind
US7428309B2 (en) * 2004-02-04 2008-09-23 Microsoft Corporation Analog preamplifier measurement for a microphone array
US7515721B2 (en) * 2004-02-09 2009-04-07 Microsoft Corporation Self-descriptive microphone array
US7415117B2 (en) * 2004-03-02 2008-08-19 Microsoft Corporation System and method for beamforming using a microphone array
JP2005252660A (ja) * 2004-03-04 2005-09-15 Matsushita Electric Ind Co Ltd 撮影システム及び撮影制御方法
JP4232032B2 (ja) 2004-05-17 2009-03-04 ソニー株式会社 音響装置および音響装置を用いた監視方法
US7359555B2 (en) * 2004-10-08 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Detecting roads in aerial images using feature-based classifiers
JP2006166007A (ja) * 2004-12-07 2006-06-22 Sony Ericsson Mobilecommunications Japan Inc 音源方向検出方法、音源方向検出装置及び撮影装置
WO2007103037A2 (en) * 2006-03-01 2007-09-13 Softmax, Inc. System and method for generating a separated signal
JP2007235646A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 音源分離装置、方法及びプログラム
JP2007274463A (ja) * 2006-03-31 2007-10-18 Yamaha Corp 遠隔会議装置
DK2064918T3 (en) * 2006-09-05 2015-01-26 Gn Resound As A hearing-aid with histogram based lydmiljøklassifikation
JP2008113164A (ja) * 2006-10-30 2008-05-15 Yamaha Corp 通信装置
JP2008278128A (ja) * 2007-04-27 2008-11-13 Toshiba Corp 監視システム、監視方法およびプログラム
JP5134876B2 (ja) * 2007-07-11 2013-01-30 株式会社日立製作所 音声通信装置及び音声通信方法並びにプログラム
JP4872871B2 (ja) * 2007-09-27 2012-02-08 ソニー株式会社 音源方向検出装置、音源方向検出方法及び音源方向検出カメラ
JP4926091B2 (ja) 2008-02-19 2012-05-09 株式会社日立製作所 音響ポインティングデバイス、音源位置のポインティング方法及びコンピュータシステム
US8189807B2 (en) * 2008-06-27 2012-05-29 Microsoft Corporation Satellite microphone array for video conferencing
EP3550853A1 (en) * 2009-11-24 2019-10-09 Nokia Technologies Oy An apparatus

Also Published As

Publication number Publication date
CN102036158A (zh) 2011-04-27
JP2011080868A (ja) 2011-04-21
CN102036158B (zh) 2016-04-06
US8682675B2 (en) 2014-03-25
US20110082690A1 (en) 2011-04-07

Similar Documents

Publication Publication Date Title
JP5452158B2 (ja) 音響監視システム、及び音声集音システム
Löllmann et al. The LOCATA challenge data corpus for acoustic source localization and tracking
CN110875060A (zh) 语音信号处理方法、装置、系统、设备和存储介质
US9500739B2 (en) Estimating and tracking multiple attributes of multiple objects from multi-sensor data
US11812235B2 (en) Distributed audio capture and mixing controlling
JP6467736B2 (ja) 音源位置推定装置、音源位置推定方法および音源位置推定プログラム
KR20110047870A (ko) 다중음원 위치 추적장치 및 그 방법
JP2021110938A (ja) 平面マイクロフォンアアレイのための複数音源トラッキング及び発話区間検出
JP6887102B2 (ja) 音声処理装置、画像処理装置、マイクアレイシステム、及び音声処理方法
CN107820037B (zh) 音频信号、图像处理的方法、装置和系统
CN109859749A (zh) 一种语音信号识别方法和装置
Salvati et al. Incident signal power comparison for localization of concurrent multiple acoustic sources
JP4490076B2 (ja) 物体追跡方法、物体追跡装置、プログラム、および、記録媒体
US20210294424A1 (en) Auto-framing through speech and video localizations
KR101976937B1 (ko) 마이크로폰 어레이를 이용한 회의록 자동작성장치
ITBO980410A1 (it) Procedimento ed apparato per la guida automatica di videocamere median te microfono .
JP5451562B2 (ja) 音響処理システム及びこれを用いた機械
JP2014191616A (ja) 独居高齢者の見守り方法、装置およびサービス提供システム
Salvati et al. A real-time system for multiple acoustic sources localization based on ISP comparison
Nguyen et al. Selection of the closest sound source for robot auditory attention in multi-source scenarios
Ettinger et al. Coordinate-free calibration of an acoustically driven camera pointing system
Nguyen et al. Acoustic sensor networks and mobile robotics for sound source localization
JP2011071683A (ja) 映像オブジェクト検出装置、映像オブジェクト検出方法及びプログラム
CN117768352A (zh) 基于语音技术的跨网数据摆渡方法及系统
Lehmann et al. Experimental performance assessment of a particle filter with voice activity data fusion for acoustic speaker tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131227

R150 Certificate of patent or registration of utility model

Ref document number: 5452158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150