JP6369022B2 - Signal analysis apparatus, signal analysis system, and program - Google Patents

Signal analysis apparatus, signal analysis system, and program Download PDF

Info

Publication number
JP6369022B2
JP6369022B2 JP2013273606A JP2013273606A JP6369022B2 JP 6369022 B2 JP6369022 B2 JP 6369022B2 JP 2013273606 A JP2013273606 A JP 2013273606A JP 2013273606 A JP2013273606 A JP 2013273606A JP 6369022 B2 JP6369022 B2 JP 6369022B2
Authority
JP
Japan
Prior art keywords
signal
spectrum
frequency spectrum
generation source
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013273606A
Other languages
Japanese (ja)
Other versions
JP2015127768A (en
Inventor
靖 飯田
靖 飯田
原田 陽雄
陽雄 原田
米山 博人
博人 米山
啓 下谷
啓 下谷
藤居 徹
徹 藤居
誓哉 稲木
誓哉 稲木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2013273606A priority Critical patent/JP6369022B2/en
Publication of JP2015127768A publication Critical patent/JP2015127768A/en
Application granted granted Critical
Publication of JP6369022B2 publication Critical patent/JP6369022B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Description

本発明は、信号解析装置、信号解析システム、プログラムに関する。   The present invention relates to a signal analysis device, a signal analysis system, and a program.

従来、一般サイドローブキャンセラと呼ばれる目的方向の音声を抽出し、目的方向外の音声を抑圧する技術が存在する。
また特許文献1には、互いに到来方向が異なる複数の音声のうち目的とする目的音声を抽出して収集する音声収集システムであって、少なくとも第1及び第2のマイクロフォンを備え第1及び第2のマイクロフォンを所定の距離離して配置したマイクロフォンアレイを有し、第1及び第2のマイクロフォンで受けた音声の信号をそれぞれ離散フーリエ変換して、音声の到来方向に関連する複数のCSP係数を求め、複数のCSP係数より複数の音声の信号を検出し、そして、求めた複数のCSP係数から、第1及び第2のマイクロフォンを結ぶ線分と到来方向のなす角度に応じて規定された音声方向インデックスを検出し、検出した音声方向インデックスにより、検出した複数の音声の信号から目的音声の信号を抽出するものが開示されている。
Conventionally, there is a technique called a general sidelobe canceller that extracts voice in a target direction and suppresses voice outside the target direction.
Patent Document 1 discloses a voice collection system that extracts and collects a target voice of interest from a plurality of voices having different directions of arrival, and includes at least a first and a second microphone. A microphone array having a plurality of microphones spaced apart from each other by a predetermined distance is obtained, and a plurality of CSP coefficients related to the direction of arrival of speech are obtained by performing discrete Fourier transform on the speech signals received by the first and second microphones. , A plurality of voice signals are detected from a plurality of CSP coefficients, and a voice direction defined according to an angle formed by a line segment connecting the first and second microphones and an arrival direction is determined from the obtained plurality of CSP coefficients. An index is detected, and a target voice signal is extracted from a plurality of detected voice signals based on the detected voice direction index. .

特開2010−26361号公報JP 2010-26361 A

信号取得手段により取得された信号が、信号発生源からの信号であるか、それ以外の信号であるかを識別する際に、誤判定が生じにくくすることが望ましい。   It is desirable to prevent erroneous determination when identifying whether the signal acquired by the signal acquisition means is a signal from a signal generation source or a signal other than that.

請求項1に記載の発明は、信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する信号情報取得部と、前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する第1の抽出部と、前記第1の抽出部とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する第2の抽出部と、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する第3の抽出部と、前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める強調スペクトル算出部と、前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、を備えることを特徴とする信号解析装置である。
請求項2に記載の発明は、前記第1の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルとの差をとることで、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理を行うことを特徴とする請求項1に記載の信号解析装置である。
請求項3に記載の発明は、前記第2の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルを加算することで、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理を行うことを特徴とする請求項1または2に記載の信号解析装置である。
請求項4に記載の発明は、前記第1の信号取得手段および前記第2の信号取得手段は、前記信号発生源、当該第1の信号取得手段および当該第2の信号取得手段がほぼ一直線上になるように配されることを特徴とする請求項1乃至3の何れか1項に記載の信号解析装置である。
請求項5に記載の発明は、前記第3の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルについて、前記信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との距離差により生じ前記信号が到達するまでの時間差を調整した上で、それぞれの差を求めることで前記抑圧スペクトルを抽出することを特徴とする請求項1乃至4の何れか1項に記載の信号解析装置である。
請求項6に記載の発明は、前記第2の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルについて、前記信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との距離差により生じ前記信号が到達するまでの時間差を調整した上で、それぞれを加算することで前記第2の抽出スペクトルを抽出することを特徴とする請求項3に記載の信号解析装置である。
請求項7に記載の発明は、前記信号発生源が動くことにより生じる、当該信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との間の角度の変化を考慮して前記時間差を決めることを特徴とする請求項5または6に記載の信号解析装置である。
請求項8に記載の発明は、前記信号は、音声であることを特徴とする請求項1乃至7の何れか1項に記載の信号解析装置である。
請求項9に記載の発明は、前記周波数スペクトル算出部は、前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報をフーリエ変換することで、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルをそれぞれ求め、前記相関性算出部は、前記第1の強調スペクトルと前記第2の強調スペクトルを逆フーリエ変換した後でそれぞれの相関性を算出することを特徴とする請求項1乃至8の何れか1項に記載の信号解析装置である。
請求項10に記載の発明は、信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号である目的方向信号を強調した強調スペクトルとして、第1の強調スペクトルおよび第2の強調スペクトルを別々の方法にて求める強調スペクトル算出部と、前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、を備えることを特徴とする信号解析装置である。
請求項11に記載の発明は、信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段からなる信号取得手段と、前記信号発生源から発した信号である目的方向信号と当該信号発生源から発した信号以外の信号である目的外方向信号とを識別する識別手段と、を備え、前記識別手段は、前記第1の信号取得手段および前記第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する信号情報取得部と、前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する第1の抽出部と、前記第1の抽出部とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する第2の抽出部と、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する第3の抽出部と、前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める強調スペクトル算出部と、前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、を備えることを特徴とする信号解析システムである。
請求項12に記載の発明は、コンピュータに、信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する機能と、前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める機能と、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する機能と、前記第1の抽出スペクトルを抽出する機能とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する機能と、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する機能と、前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める機能と、前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する機能と、を実現させるプログラムである。
According to the first aspect of the present invention, the signals generated by the first signal acquisition unit and the second signal acquisition unit are arranged at different distances from the signal generation source and acquire a signal emitted from the signal generation source. As a frequency spectrum representing the relationship between the frequency and the intensity from the signal information acquisition unit for acquiring the information on each of the information on the respective signals generated by the first signal acquisition unit and the second signal acquisition unit, A frequency spectrum calculation unit that obtains a first frequency spectrum and a second frequency spectrum, respectively, and a signal emitted from the signal generation source from the first frequency spectrum and the second frequency spectrum, A first extraction unit for extracting a first extracted spectrum that has been processed to be larger than signals originating from different directions; A process in which a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source from the first frequency spectrum and the second frequency spectrum by a process different from the output unit. A second extraction unit that extracts the second extracted spectrum, and a third extraction unit that extracts, from the first frequency spectrum and the second frequency spectrum, a suppression spectrum that suppresses a signal emitted from the signal generation source. The extraction unit subtracts the suppression spectrum from the first extraction spectrum and obtains a first enhancement spectrum by performing a flooring process, and subtracts the suppression spectrum from the second extraction spectrum. An enhancement spectrum calculation unit for obtaining two enhancement spectra, and the first enhancement spectrum and the second enhancement spectrum. A correlation calculation unit for calculating a correlation that a signal analysis apparatus comprising: a.
According to a second aspect of the present invention, the first extraction unit takes a difference between the first frequency spectrum and the second frequency spectrum, so that a signal generated from the signal generation source generates the signal generation. The signal analyzing apparatus according to claim 1, wherein the signal analyzing apparatus performs processing that is larger than a signal emitted from a direction different from the source.
According to a third aspect of the present invention, the second extraction unit adds the first frequency spectrum and the second frequency spectrum so that the signal generated from the signal generation source is the signal generation source. The signal analysis apparatus according to claim 1, wherein the signal analysis processing is performed so as to be larger than signals emitted from different directions.
According to a fourth aspect of the present invention, in the first signal acquisition unit and the second signal acquisition unit, the signal generation source, the first signal acquisition unit, and the second signal acquisition unit are substantially in a straight line. The signal analysis device according to claim 1, wherein the signal analysis device is arranged so as to be.
According to a fifth aspect of the present invention, the third extraction unit, for the first frequency spectrum and the second frequency spectrum, the signal generation source, the first signal acquisition unit, and the second signal. 5. The suppression spectrum is extracted by adjusting a time difference that occurs due to a difference in distance from an acquisition unit until the signal arrives, and obtaining each difference. 6. It is a signal analysis device described in 1.
According to a sixth aspect of the present invention, the second extraction unit, for the first frequency spectrum and the second frequency spectrum, the signal generation source, the first signal acquisition unit, and the second signal. 4. The signal analysis according to claim 3, wherein the second extracted spectrum is extracted by adding each after adjusting a time difference that occurs due to a difference in distance from an acquisition unit and arrives at the signal. Device.
The invention according to claim 7 takes into account a change in angle between the signal generation source and the first signal acquisition means and the second signal acquisition means, which is caused by the movement of the signal generation source. The signal analysis apparatus according to claim 5, wherein the time difference is determined.
The invention according to claim 8 is the signal analysis apparatus according to any one of claims 1 to 7, wherein the signal is voice.
In the invention according to claim 9, the frequency spectrum calculation unit performs Fourier transform on information about each signal generated by the first signal acquisition unit and the second signal acquisition unit. Each of the frequency spectrum and the second frequency spectrum, and the correlation calculation unit calculates the respective correlations after performing inverse Fourier transform on the first enhancement spectrum and the second enhancement spectrum. The signal analysis device according to claim 1, wherein the signal analysis device is a signal analysis device.
The invention according to claim 10 is a signal generated by a first signal acquisition unit and a second signal acquisition unit that are arranged at different distances from the signal generation source and acquire a signal emitted from the signal generation source. As a frequency spectrum representing the relationship between the frequency and the intensity from the information regarding the frequency spectrum calculating unit for obtaining the first frequency spectrum and the second frequency spectrum, respectively, and the first frequency spectrum and the second frequency spectrum. An enhanced spectrum calculation unit that obtains a first enhanced spectrum and a second enhanced spectrum as separate enhanced methods as an enhanced spectrum in which a target direction signal that is a signal generated from the signal generation source is enhanced, and the first enhancement A correlation calculating unit that calculates a correlation between the spectrum and the second enhanced spectrum. A signal analyzer to.
The invention according to claim 11 is a signal acquisition unit comprising a first signal acquisition unit and a second signal acquisition unit, which are arranged at different distances from the signal generation source and acquire a signal emitted from the signal generation source. And identifying means for identifying a target direction signal that is a signal emitted from the signal generation source and a non-target direction signal that is a signal other than the signal emitted from the signal generation source, and the identification means includes the A signal information acquisition unit that acquires information about the signals generated by the first signal acquisition unit and the second signal acquisition unit, respectively, and the first signal acquisition unit and the second signal acquisition unit The frequency spectrum for obtaining the first frequency spectrum and the second frequency spectrum as the frequency spectrum representing the relationship between the frequency and the intensity from the information on each signal. A first calculating unit and a first frequency spectrum and a second frequency spectrum, wherein a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source. A signal generated from the signal generation source is generated from the first frequency spectrum and the second frequency spectrum by a process different from the first extraction unit for extracting the extraction spectrum and the first extraction unit. A second extraction unit that extracts a second extraction spectrum that has been processed to be larger than a signal emitted from a direction different from that of the signal generation source; and the signal from the first frequency spectrum and the second frequency spectrum. A third extraction unit for extracting a suppression spectrum in which a signal emitted from the generation source is suppressed; and subtracting the suppression spectrum from the first extraction spectrum; An enhanced spectrum calculation unit that obtains a first enhanced spectrum by performing a processing, and obtains a second enhanced spectrum by subtracting the suppression spectrum from the second extracted spectrum; and the first enhanced spectrum; A signal analysis system comprising: a correlation calculation unit that calculates correlation with the second enhancement spectrum.
The invention according to claim 12 is generated by the first signal acquisition means and the second signal acquisition means, which are arranged at different distances from the signal generation source in the computer and acquire signals emitted from the signal generation source. As a frequency spectrum representing the relationship between the frequency and the intensity from the function of acquiring information related to the received signals and the information related to the signals generated by the first signal acquisition means and the second signal acquisition means, A direction in which a signal generated from the signal generation source is different from the signal generation source based on a function for obtaining the first frequency spectrum and the second frequency spectrum, and the first frequency spectrum and the second frequency spectrum. a function of extracting the first extract spectrum a more larger processing signals emitted from, extract the first extraction spectrum The different processing is the ability to, from the first frequency spectrum and the second frequency spectrum, the processing signals emitted from the signal source is greater than the signal emitted from a direction different from the corresponding signal source A function of extracting the second extracted spectrum, a function of extracting a suppression spectrum in which a signal emitted from the signal source is suppressed, from the first frequency spectrum and the second frequency spectrum; A function of subtracting the suppression spectrum from the extracted spectrum and performing a flooring process to obtain a first enhancement spectrum, and subtracting the suppression spectrum from the second extraction spectrum to obtain a second enhancement spectrum; A function of calculating a correlation between the first enhanced spectrum and the second enhanced spectrum; Is a program to realize.

請求項1の発明によれば、本構成を採用しない場合に比較して、信号取得手段により取得された音声が、信号発生源からの信号であるかそれ以外の信号であるかを識別する際に、誤判定が生じにくい信号解析装置が提供できる。
請求項2の発明によれば、本構成を採用しない場合に比較して、第1の抽出スペクトルをより容易に抽出することができる。
請求項3の発明によれば、本構成を採用しない場合に比較して、第2の抽出スペクトルをより容易に抽出することができる。
請求項4の発明によれば、本構成を採用しない場合に比較して、誤判定がさらに生じにくくなる。
請求項5の発明によれば、本構成を採用しない場合に比較して、抑圧スペクトルをより容易に求めることができる。
請求項6の発明によれば、本構成を採用しない場合に比較して、第2の抽出スペクトルをより精度よく求めることができる。
請求項7の発明によれば、信号発生源が動く場合でも対応することができる。
請求項8の発明によれば、本構成を採用しない場合に比較して、信号解析装置を装着している装着者の発話音声であるか他者の発話音声であるかを識別する際に、誤判定が生じにくい信号解析装置が提供できる。
請求項9の発明によれば、本構成を採用しない場合に比較して、第1の周波数スペクトルおよび第2の周波数スペクトルを求めるのがより容易になるとともに、相関性算出部の相関性の算出がより容易となる。
請求項10の発明によれば、本構成を採用しない場合に比較して、信号取得手段により取得された音声が、信号発生源からの信号であるかそれ以外の信号であるかを識別する際に、誤判定が生じにくい信号解析装置が提供できる。
請求項11の発明によれば、本構成を採用しない場合に比較して、信号取得手段により取得された音声が、信号発生源からの信号であるかそれ以外の信号であるかを識別する際に、誤判定が生じにくい信号解析システムが提供できる。
請求項12の発明によれば、本構成を採用しない場合に比較して、信号取得手段により取得された音声が、信号発生源からの信号であるかそれ以外の信号であるかを識別する際に、誤判定が生じにくくなる機能をコンピュータにより実現できる。
According to the first aspect of the present invention, it is possible to identify whether the sound acquired by the signal acquisition means is a signal from a signal generation source or a signal other than the case where this configuration is not adopted. In addition, it is possible to provide a signal analyzer that is unlikely to cause erroneous determination.
According to the second aspect of the present invention, the first extraction spectrum can be extracted more easily than in the case where this configuration is not adopted.
According to the invention of claim 3, the second extracted spectrum can be extracted more easily than in the case where the present configuration is not adopted.
According to the fourth aspect of the present invention, erroneous determination is further less likely to occur than in the case where the present configuration is not adopted.
According to the fifth aspect of the present invention, the suppression spectrum can be obtained more easily than in the case where this configuration is not adopted.
According to the sixth aspect of the present invention, the second extracted spectrum can be obtained with higher accuracy than when this configuration is not adopted.
According to the seventh aspect of the present invention, it is possible to cope with a case where the signal generation source moves.
According to the invention of claim 8, when identifying whether it is the speech voice of the wearer wearing the signal analysis device or the speech voice of another person, compared to the case where this configuration is not adopted, It is possible to provide a signal analyzer that is unlikely to cause erroneous determination.
According to the ninth aspect of the present invention, it is easier to obtain the first frequency spectrum and the second frequency spectrum than when the present configuration is not adopted, and the correlation calculation unit calculates the correlation. Becomes easier.
According to the tenth aspect of the present invention, when the voice acquired by the signal acquisition means is a signal from the signal generation source or other signals than when the present configuration is not adopted. In addition, it is possible to provide a signal analyzer that is unlikely to cause erroneous determination.
According to the eleventh aspect of the present invention, when identifying whether the sound acquired by the signal acquisition means is a signal from a signal generation source or a signal other than that in the case where this configuration is not adopted. In addition, it is possible to provide a signal analysis system in which erroneous determination is unlikely to occur.
According to the twelfth aspect of the present invention, when identifying whether the sound acquired by the signal acquisition means is a signal from a signal generation source or a signal other than that when the present configuration is not adopted. In addition, a function that makes it difficult for erroneous determination to occur can be realized by a computer.

本実施形態による音声解析システムの構成例を示す図である。It is a figure which shows the structural example of the audio | voice analysis system by this embodiment. (a)〜(b)は、本実施形態における端末装置の構成例を示す図である。(A)-(b) is a figure which shows the structural example of the terminal device in this embodiment. 装着者および他者の口(発声部位)と、マイクロフォンとの位置の関係を示す図である。It is a figure which shows the positional relationship of a wearer and another person's mouth (speaking part), and a microphone. 本実施形態における音声解析部の機能構成例を示した図である。It is the figure which showed the function structural example of the audio | voice analysis part in this embodiment. 本実施形態における端末装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the terminal device in this embodiment. 音声解析部における信号処理のプロセスについて説明した図である。It is a figure explaining the process of the signal processing in an audio | voice analysis part. 音声情報取得手段で取得された音声信号の一例を示した図である。It is the figure which showed an example of the audio | voice signal acquired by the audio | voice information acquisition means. (a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルとの差をとったときに、装着者の発声部位から発した音声と他者の音声とでどのようなスペクトルが抽出されるかを説明した図である。ここでは説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。(A) to (b) show what kind of spectrum is generated between the voice uttered by the wearer and the voice of the other person when the difference between the first frequency spectrum and the second frequency spectrum is taken. It is a figure explaining whether it is extracted. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in (a) to (b), the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal. (a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルとを加算したときに、装着者の発声部位から発した音声と他者の音声とでどのようなスペクトルが抽出されるかを説明した図である。ここでは説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。In (a) to (b), when the first frequency spectrum and the second frequency spectrum are added, what kind of spectrum is extracted between the voice uttered from the wearer's voice and the voice of the other person. It is a figure explaining how. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in (a) to (b), the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal. (a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルについて、装着者の発声部位と第1マイクロフォンおよび第2マイクロフォンとの距離差により生じ音声が到達するまでの時間差を調整した上で、それぞれの差を求めたときに装着者の発声部位から発した音声と他者の音声とでどのようなスペクトルが抽出されるかを説明した図である。ここでは説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。(A)-(b) adjusts the time difference until the voice arrives for the first frequency spectrum and the second frequency spectrum due to the difference in distance between the wearer's utterance part and the first microphone and the second microphone. Then, it is a figure explaining what kind of spectrum is extracted by the voice uttered from the wearer's utterance part and the voice of the other person when each difference is obtained. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in (a) to (b), the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal. 装着者の発話音声についての第1の目的方向強調スペクトルおよび第2の目的方向強調スペクトルの例である。It is an example of the 1st target direction emphasis spectrum about a wearer's speech voice, and the 2nd target direction emphasis spectrum. 他者の発話音声についての第1の目的方向強調スペクトルおよび第2の目的方向強調スペクトルの例である。It is an example of the 1st target direction emphasis spectrum about the speech sound of others, and the 2nd target direction emphasis spectrum. 装着者の発話音声と他者の発話音声の双方がマイクロフォンにより取得されたときの第1の目的方向強調スペクトルおよび第2の目的方向強調スペクトルの例である。It is an example of the 1st target direction emphasis spectrum and the 2nd target direction emphasis spectrum when both a wearer's speech sound and the speech sound of others are acquired with the microphone. 図7で示した音声信号に対し、図4以降で説明を行なった処理を行なった結果を示した図である。It is the figure which showed the result of having performed the process demonstrated after FIG. 4 with respect to the audio | voice signal shown in FIG. 本実施形態の端末装置をそれぞれ装着した複数の装着者が会話している状況を示す図である。It is a figure which shows the condition where the several wearer who each mounted | wore with the terminal device of this embodiment is talking. 図15の会話状況における各端末装置の発話情報の例を示す図である。It is a figure which shows the example of the speech information of each terminal device in the conversation condition of FIG.

以下、添付図面を参照して、本発明の実施形態について詳細に説明する。ここでは、信号として音声を例示し、信号解析システムの一例として音声解析システムの説明を行なう。
<システム構成例>
図1は、本実施形態による音声解析システムの構成例を示す図である。
図1に示すように、本実施形態の音声解析システム1は、端末装置10と、ホスト装置20とを備えて構成される。端末装置10とホスト装置20とは、無線通信回線を介して接続されている。無線通信回線の種類としては、Wi−Fi(Wireless Fidelity)、Bluetooth(登録商標)、ZigBee、UWB(Ultra Wideband)等の既存の方式による回線を用いて良い。また、図示の例では、端末装置10が1台のみ記載されているが、端末装置10は、使用者各人が装着して使用するものであり、実際には使用者数分の端末装置10が用意される。以下、端末装置10を装着した使用者を装着者と呼ぶ。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Here, speech is exemplified as a signal, and the speech analysis system is described as an example of the signal analysis system.
<System configuration example>
FIG. 1 is a diagram illustrating a configuration example of a speech analysis system according to the present embodiment.
As shown in FIG. 1, the speech analysis system 1 of this embodiment includes a terminal device 10 and a host device 20. The terminal device 10 and the host device 20 are connected via a wireless communication line. As a type of the wireless communication line, a line using an existing method such as Wi-Fi (Wireless Fidelity), Bluetooth (registered trademark), ZigBee, or UWB (Ultra Wideband) may be used. Further, in the illustrated example, only one terminal device 10 is described, but the terminal device 10 is worn and used by each user, and actually the terminal devices 10 for the number of users. Is prepared. Hereinafter, a user wearing the terminal device 10 is referred to as a wearer.

端末装置10は、音声を取得するための音声取得手段(信号取得手段)として、複数のマイクロフォン(第1マイクロフォン11(第1の信号取得手段)および第2マイクロフォン12(第2の信号取得手段)と、増幅器(第1増幅器13および第2増幅器14)とを備える。また、端末装置10は、取得した音声を解析する音声解析部15と、解析結果をホスト装置20に送信するためのデータ送信部16とを備え、さらに電源部17を備える。   The terminal device 10 has a plurality of microphones (first microphone 11 (first signal acquisition means) and second microphone 12 (second signal acquisition means) as voice acquisition means (signal acquisition means) for acquiring voice. And an amplifier (the first amplifier 13 and the second amplifier 14) The terminal device 10 also includes a voice analysis unit 15 that analyzes the acquired voice, and data transmission for transmitting the analysis result to the host device 20. And a power supply unit 17.

第1マイクロフォン11と第2マイクロフォン12は、装着者の口(発声部位、信号発生源)からの距離が異なる位置に配される。ここでは、第1マイクロフォン11は装着者の口(発声部位)から近い位置(例えば、10cm程度)に配置され、第2マイクロフォン12は装着者の口(発声部位)に遠い位置(例えば、35cm程度)に配置されるものとする。本実施形態の第1マイクロフォン11および第2マイクロフォン12として用いられるマイクロフォンの種類としては、ダイナミック型、コンデンサ型等、既存の種々のものを用いて良い。とくに無指向性のMEMS(Micro Electro Mechanical Systems)型マイクロフォンが好ましい。   The 1st microphone 11 and the 2nd microphone 12 are arranged in the position where the distance from a wearer's mouth (voice part and signal generation source) differs. Here, the first microphone 11 is disposed at a position (for example, about 10 cm) close to the mouth (speaking part) of the wearer, and the second microphone 12 is a position (for example, about 35 cm) far from the mouth (speaking part) of the wearer. ). As the types of microphones used as the first microphone 11 and the second microphone 12 of the present embodiment, various existing types such as a dynamic type and a condenser type may be used. In particular, a non-directional MEMS (Micro Electro Mechanical Systems) type microphone is preferable.

第1増幅器13および第2増幅器14は、それぞれ第1マイクロフォン11および第2マイクロフォン12が取得した音声に応じて出力する電気信号(音声信号)を増幅する。本実施形態の第1増幅器13および第2増幅器14として用いられる増幅器としては、既存のオペアンプ等を用いて良い。   The first amplifier 13 and the second amplifier 14 amplify electrical signals (audio signals) that are output according to the audio acquired by the first microphone 11 and the second microphone 12, respectively. As the amplifier used as the first amplifier 13 and the second amplifier 14 of the present embodiment, an existing operational amplifier or the like may be used.

音声解析部15は、第1増幅器13および第2増幅器14から出力された音声信号を解析する。そして、第1マイクロフォン11および第2マイクロフォン12で取得した音声が端末装置10を装着した装着者自身が発話した音声か、他者の発話による音声かを識別する。音声識別のための具体的な処理の内容については後述する。音声解析部15は、詳しくは後述するが、装着者の口(発声部位、信号発生源)から発した音声(信号)である目的方向信号と装着者の口から発した音声以外の音声である目的外方向信号とを識別する識別手段(信号解析装置)として機能する。   The voice analysis unit 15 analyzes the voice signal output from the first amplifier 13 and the second amplifier 14. Then, it is identified whether the voice acquired by the first microphone 11 and the second microphone 12 is a voice uttered by the wearer wearing the terminal device 10 or a voice uttered by another person. Details of specific processing for voice identification will be described later. As will be described in detail later, the voice analysis unit 15 is a voice other than a target direction signal that is a voice (signal) emitted from the wearer's mouth (speech part, signal generation source) and a voice emitted from the wearer's mouth. It functions as a discriminating means (signal analyzing device) for discriminating a non-target direction signal.

データ送信部16は、音声解析部15による解析結果を含む取得データと端末IDを、上記の無線通信回線を介してホスト装置20へ送信する。ホスト装置20へ送信する情報としては、ホスト装置20において行われる処理の内容に応じて、上記の解析結果の他、例えば、第1マイクロフォン11および第2マイクロフォン12による音声の取得時刻、取得音声の音圧等の情報を含めて良い。また端末装置10に音声解析部15による解析結果を蓄積するデータ蓄積部を設け、一定期間の保存データを一括送信しても良い。なお有線回線で送信しても良い。   The data transmission unit 16 transmits the acquired data including the analysis result by the voice analysis unit 15 and the terminal ID to the host device 20 via the wireless communication line. As information to be transmitted to the host device 20, in addition to the above analysis results, for example, the acquisition time of the sound by the first microphone 11 and the second microphone 12 and the acquired sound according to the contents of the processing performed in the host device 20 Information such as sound pressure may be included. Further, the terminal device 10 may be provided with a data storage unit for storing the analysis result by the voice analysis unit 15 and the stored data for a certain period may be transmitted collectively. It may be transmitted via a wired line.

電源部17は、上記の第1マイクロフォン11、第2マイクロフォン12、第1増幅器13、第2増幅器14、音声解析部15およびデータ送信部16に電力を供給する。電源としては、例えば乾電池や充電池等の既存の電源が用いられる。また、電源部17は、必要に応じて、電圧変換回路および充電制御回路等の周知の回路を含む。   The power supply unit 17 supplies power to the first microphone 11, the second microphone 12, the first amplifier 13, the second amplifier 14, the voice analysis unit 15, and the data transmission unit 16. As the power source, for example, an existing power source such as a dry battery or a rechargeable battery is used. Moreover, the power supply part 17 contains well-known circuits, such as a voltage conversion circuit and a charge control circuit, as needed.

ホスト装置20は、端末装置10から送信されたデータを受信するデータ受信部21と、受信したデータを蓄積するデータ蓄積部22と、蓄積したデータを解析するデータ解析部23と、解析結果を出力する出力部24とを備える。このホスト装置20は、例えばパーソナルコンピュータ等の情報処理装置により実現される。また、上記のように本実施形態では複数台の端末装置10が使用され、ホスト装置20は、その複数台の端末装置10の各々からデータを受信する。   The host device 20 outputs a data reception unit 21 that receives data transmitted from the terminal device 10, a data storage unit 22 that stores the received data, a data analysis unit 23 that analyzes the stored data, and an analysis result. Output unit 24. The host device 20 is realized by an information processing device such as a personal computer. Further, as described above, a plurality of terminal devices 10 are used in the present embodiment, and the host device 20 receives data from each of the plurality of terminal devices 10.

データ受信部21は、上記の無線回線に対応しており、各端末装置10からデータを受信してデータ蓄積部22へ送る。
データ蓄積部22は、例えばパーソナルコンピュータの磁気ディスク装置等の記憶装置により実現され、データ受信部21から取得した受信データを発話者別に蓄積する。ここで、発話者の識別は、端末装置10から送信される端末IDと、あらかじめホスト装置20に登録されている発話者名と端末IDの照合により行う。また、端末装置10から端末IDのかわりに装着者状態を送信するようにしてもよい。
The data receiving unit 21 corresponds to the above-described wireless line, receives data from each terminal device 10, and sends it to the data storage unit 22.
The data storage unit 22 is realized by a storage device such as a magnetic disk device of a personal computer, for example, and stores received data acquired from the data receiving unit 21 for each speaker. Here, the speaker is identified by collating the terminal ID transmitted from the terminal device 10 with the name of the speaker registered in advance in the host device 20 and the terminal ID. Further, the wearer state may be transmitted from the terminal device 10 instead of the terminal ID.

データ解析部23は、例えばパーソナルコンピュータのプログラム制御されたCPUにより実現され、データ蓄積部22に蓄積されたデータを解析する。具体的な解析内容および解析手法は、本実施形態のシステムの利用目的や利用態様に応じて種々の内容および手法を取り得る。例えば、端末装置10の装着者同士の対話頻度や各装着者の対話相手の傾向を分析したり、対話における個々の発話の長さや音圧の情報から対話者の関係を類推したりすることが行われる。   The data analysis unit 23 is realized by a program-controlled CPU of a personal computer, for example, and analyzes data stored in the data storage unit 22. The specific analysis content and analysis method can take various contents and methods depending on the purpose and use of the system of the present embodiment. For example, the frequency of dialogue between wearers of the terminal device 10 and the tendency of each wearer's dialogue partner may be analyzed, or the relationship between the dialogues may be inferred from information on individual utterance length and sound pressure in the dialogue. Done.

出力部24は、データ解析部23による解析結果を出力したり、解析結果に基づく出力を行ったりする。この解析結果等を出力する手段は、システムの利用目的や利用態様、解析結果の内容や形式等に応じて、ディスプレイ表示、プリンタによる印刷出力、音声出力等、種々の手段を取り得る。   The output unit 24 outputs the analysis result from the data analysis unit 23 or performs output based on the analysis result. The means for outputting the analysis result or the like can take various means such as display display, print output by a printer, voice output, and the like according to the purpose and use of the system and the content and format of the analysis result.

<端末装置の構成例>
図2(a)〜(b)は、端末装置10の構成例を示す図である。このうち図2(a)は、装着者が端末装置10を実際に装着したときの状態を装着者のほぼ正面から見た図であり、図2(b)は、この状態を側面から見た図である。
上記のように、端末装置10は、各使用者に装着されて使用される。使用者が装着可能とするため、本実施形態の端末装置10は、図2(a)〜(b)に示すように、装置本体30と、装置本体30に接続された提げ紐40とを備えた構成とする。図示の構成において、使用者は、提げ紐40に首を通し、装置本体30を首から提げて装着する。
<Configuration example of terminal device>
2A and 2B are diagrams illustrating a configuration example of the terminal device 10. Of these, FIG. 2 (a) is a view of the state when the wearer actually wears the terminal device 10 as seen from the front of the wearer, and FIG. 2 (b) is a view of this state from the side. FIG.
As described above, the terminal device 10 is used by being attached to each user. In order for the user to be able to wear the terminal device 10 according to the present embodiment, as shown in FIGS. 2A to 2B, the device main body 30 and a strap 40 connected to the device main body 30 are provided. The configuration is as follows. In the configuration shown in the figure, the user puts the neck through the strap 40 and hangs the apparatus main body 30 from the neck.

装置本体30は、金属や樹脂等で形成された薄い直方体のケース31に、少なくとも第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17を実現する回路と電源部17の電源(電池)とを収納して構成される。ケース31には、装着者の氏名や所属等のID情報を表示したIDカード等を挿入するポケットを設けても良い。また、ケース31自体の表面にそのようなID情報等を印刷したり、ID情報等を記載したシールを貼り付けたりしても良い。   The apparatus main body 30 is a thin rectangular parallelepiped case 31 made of metal, resin, or the like, and a circuit and a power source for realizing at least the first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17. The power supply (battery) of the unit 17 is accommodated. The case 31 may be provided with a pocket for inserting an ID card or the like displaying ID information such as the name and affiliation of the wearer. Further, such ID information or the like may be printed on the surface of the case 31 itself, or a sticker describing the ID information or the like may be attached.

提げ紐40には、第1マイクロフォン11および第2マイクロフォン12が設けられる(以下、第1マイクロフォン11と第2マイクロフォン12とを区別しない場合には、マイクロフォン11、12と記載)。マイクロフォン11、12は、提げ紐40の内部を通るケーブル(電線等)により、装置本体30に収納された第1増幅器13、第2増幅器14に接続される。提げ紐40の材質としては、革、合成皮革、木綿その他の天然繊維や樹脂等による合成繊維、金属等、既存の種々の材質を用いて良い。また、シリコン樹脂やフッ素樹脂等を用いたコーティング処理が施されていても良い。   The strap 40 is provided with a first microphone 11 and a second microphone 12 (hereinafter referred to as microphones 11 and 12 when the first microphone 11 and the second microphone 12 are not distinguished). The microphones 11 and 12 are connected to the first amplifier 13 and the second amplifier 14 accommodated in the apparatus main body 30 by cables (electric wires or the like) passing through the inside of the strap 40. As the material of the strap 40, various existing materials such as leather, synthetic leather, cotton and other natural fibers and synthetic fibers such as resin, metal, and the like may be used. Moreover, the coating process using a silicon resin, a fluororesin, etc. may be given.

この提げ紐40は、筒状の構造を有し、提げ紐40の内部にマイクロフォン11、12を収納している。マイクロフォン11、12を提げ紐40の内部に設けることにより、マイクロフォン11、12の損傷や汚れを防ぎ、対話者がマイクロフォン11、12の存在を意識することが抑制される。なお、装着者の口(発声部位)から遠い位置に配置される第2マイクロフォン12は、装置本体30に設けても良い。本実施形態では、第2マイクロフォン12が提げ紐40に設けられる場合を例として説明する。   The strap 40 has a cylindrical structure, and the microphones 11 and 12 are housed inside the strap 40. By providing the microphones 11 and 12 inside the strap 40, the microphones 11 and 12 are prevented from being damaged and dirty, and the conversation person is prevented from being aware of the presence of the microphones 11 and 12. The second microphone 12 disposed at a position far from the wearer's mouth (speaking part) may be provided in the apparatus main body 30. In the present embodiment, a case where the second microphone 12 is provided on the strap 40 will be described as an example.

図2(a)〜(b)を参照すると、第1マイクロフォン11は、提げ紐40の装置本体30に接続される端部から離れた位置(例えば、接続部位から20cm〜30cm程度の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第1マイクロフォン11は、装着者の首元(例えば鎖骨に当たる位置)に位置し、装着者の口(発声部位)から約10cmから20cm程度離れた位置に配置される。   Referring to FIGS. 2A to 2B, the first microphone 11 is positioned away from the end of the strap 40 connected to the device main body 30 (for example, a position about 20 cm to 30 cm from the connection site). Is provided. Accordingly, the first microphone 11 is positioned at the wearer's neck (for example, a position corresponding to the clavicle) in a state where the wearer hangs the strap 40 on the neck and the apparatus main body 30 is lowered, and the wearer's mouth (voice) From about 10 cm to 20 cm.

第2マイクロフォン12は、提げ紐40の装置本体30に接続される端部(例えば、接続部位から10cm以内の位置)に設けられている。これにより、装着者が提げ紐40を首に掛けて装置本体30を下げた状態で、第2マイクロフォン12は、装着者の口(発声部位)から約30cmから40cm程度離れた位置に配置される。なお、第2マイクロフォン12が装置本体30に設けられた場合も、装着者の口(発声部位)から第2マイクロフォン12までの距離は同程度である。   The second microphone 12 is provided at an end of the strap 40 connected to the device main body 30 (for example, a position within 10 cm from the connection site). Accordingly, the second microphone 12 is disposed at a position about 30 cm to 40 cm away from the wearer's mouth (speaking part) in a state where the wearer hangs the strap 40 around the neck and lowers the apparatus main body 30. . Even when the second microphone 12 is provided in the apparatus main body 30, the distance from the wearer's mouth (speaking part) to the second microphone 12 is approximately the same.

本実施の形態では、図2(b)に示すように、第1マイクロフォン11および第2マイクロフォン12を、第1マイクロフォン11、第2マイクロフォン12および装着者の口(発声部位)が、ほぼ一直線上になるように配する。またここでは第1マイクロフォン11および第2マイクロフォン12に対し、装着者の口(発声部位)の方向を「目的方向」と言うものとし、それ以外の方向を「目的外方向」と言うものとする。   In the present embodiment, as shown in FIG. 2 (b), the first microphone 11 and the second microphone 12 are arranged so that the first microphone 11, the second microphone 12 and the mouth (speaking part) of the wearer are substantially in a straight line. Arrange to become. In addition, here, the direction of the wearer's mouth (speaking part) with respect to the first microphone 11 and the second microphone 12 is referred to as a “target direction”, and the other direction is referred to as a “non-target direction”. .

なお、本実施形態の端末装置10は、図2(a)〜(b)に示す構成に限定されるものではない。例えば、マイクロフォン11、12は、第2マイクロフォン12から装着者の口(発声部位)までの音波到達経路の距離が第1マイクロフォン11から装着者の口(発声部位)までの音波到達経路の距離の数倍程度となるように、第1マイクロフォン11と第2マイクロフォン12の位置関係が特定されれば良い。また、マイクロフォン11、12は、上記のように提げ紐40に設ける構成に限らず、種々の方法で装着者に装着して良い。例えば、第1マイクロフォン11と第2マイクロフォン12の各々を、個別にピン等を用いて衣服に固定するように構成しても良い。また、第1マイクロフォン11と第2マイクロフォン12の位置関係が所望の位置で固定されるようにデザインされた専用の装着具を用意して装着しても良い。   In addition, the terminal device 10 of this embodiment is not limited to the structure shown to Fig.2 (a)-(b). For example, in the microphones 11 and 12, the distance of the sound wave arrival path from the second microphone 12 to the wearer's mouth (speech part) is the distance of the sound wave arrival path from the first microphone 11 to the wearer's mouth (speech part). The positional relationship between the first microphone 11 and the second microphone 12 may be specified so as to be several times. Further, the microphones 11 and 12 are not limited to the configuration provided on the strap 40 as described above, and may be attached to the wearer by various methods. For example, each of the first microphone 11 and the second microphone 12 may be configured to be individually fixed to clothes using pins or the like. Alternatively, a dedicated mounting tool designed so that the positional relationship between the first microphone 11 and the second microphone 12 is fixed at a desired position may be prepared and mounted.

また、装置本体30は、図2(a)〜(b)に示したように、提げ紐40に接続されて装着者の首から提げられる構成に限らず、携帯することが容易な装置として構成されていれば良い。例えば、本実施形態のような提げ紐ではなく、クリップやベルトにより衣服や体に装着するように構成しても良いし、単にポケット等に納めて携帯するような構成としても良い。また、携帯電話その他の既存の携帯型電子情報端末に、マイクロフォン11、12からの音声信号を受け付けて増幅し、解析する機能を実現させても良い。   Moreover, as shown to Fig.2 (a)-(b), the apparatus main body 30 is comprised not only as the structure connected to the strap 40 and being hung up from a wearer's neck but as an apparatus which is easy to carry. It only has to be done. For example, instead of the strap as in the present embodiment, it may be configured to be attached to clothes or a body with a clip or a belt, or may be configured to be simply carried in a pocket or the like. In addition, a function of receiving, amplifying, and analyzing a voice signal from the microphones 11 and 12 may be realized in a mobile phone or other existing portable electronic information terminal.

さらにまた、マイクロフォン11、12と装置本体30(あるいは音声解析部15)を有線で接続するのではなく、無線通信により接続しても良い。第1増幅器13、第2増幅器14、音声解析部15、データ送信部16および電源部17は、上記の構成例では単一のケース31に収納されることとしたが、複数の個体として構成しても良い。例えば、電源部17をケース31に収納せず、外部電源に接続して使用する構成としても良い。   Furthermore, the microphones 11 and 12 and the apparatus main body 30 (or the voice analysis unit 15) may be connected by wireless communication instead of being connected by wire. The first amplifier 13, the second amplifier 14, the voice analysis unit 15, the data transmission unit 16, and the power supply unit 17 are housed in a single case 31 in the above configuration example, but are configured as a plurality of individuals. May be. For example, the power supply unit 17 may be used by being connected to an external power supply without being stored in the case 31.

<取得音声の非言語情報に基づく発話者(自他)の識別>
本実施形態のシステムは、端末装置10に設けられた2つのマイクロフォン11、12により取得された音声の情報を用いて、端末装置10の装着者自身の発話音声と他者の発話音声とを識別する。言い換えれば、本実施形態は、取得音声の発話者に関して自他の別を識別(自他識別)する。また、本実施形態では、取得音声の情報のうち、形態素解析や辞書情報を用いて得られる言語情報ではなく、非言語情報に基づいて発話者を識別する。言い換えれば、言語情報により特定される発話内容ではなく、非言語情報により特定される発話状況から音声の発話者を識別する。
<Identification of speakers (self and others) based on non-linguistic information of acquired speech>
The system of the present embodiment distinguishes between the voice of the wearer of the terminal apparatus 10 and the voice of the other person using the voice information acquired by the two microphones 11 and 12 provided in the terminal apparatus 10. To do. In other words, the present embodiment identifies self / other distinction (self / other identification) regarding the speaker of the acquired voice. Further, in the present embodiment, the speaker is identified based on non-linguistic information, not linguistic information obtained by using morphological analysis or dictionary information in the acquired speech information. In other words, the voice speaker is identified not from the utterance content specified by the linguistic information but from the utterance situation specified by the non-linguistic information.

図3は、装着者および他者の口(発声部位)と、マイクロフォン11、12との位置の関係を示す図である。
図3に示す関係において、装着者の口(発声部位)である音源aと第1マイクロフォン11との間の距離をLa1、音源aと第2マイクロフォン12との間の距離をLa2とする。また、他者の口(発声部位)である音源bと第1マイクロフォン11との間の距離をLb1、音源bと第2マイクロフォン12との間の距離をLb2とする。この場合、次の関係が成り立つ。
La1<La2(La2≒1.5×La1〜4×La1)
Lb1≒Lb2
FIG. 3 is a diagram illustrating a positional relationship between the mouths (speaking parts) of the wearer and the other person and the microphones 11 and 12.
In the relationship shown in FIG. 3, let La1 be the distance between the sound source a that is the mouth (speaking part) of the wearer and the first microphone 11, and let La2 be the distance between the sound source a and the second microphone 12. Further, the distance between the sound source b, which is the mouth (speaking part) of the other person, and the first microphone 11 is Lb1, and the distance between the sound source b and the second microphone 12 is Lb2. In this case, the following relationship holds.
La1 <La2 (La2≈1.5 × La1 to 4 × La1)
Lb1≈Lb2

このとき音圧は、マイクロフォン11、12と音源との間の距離に応じて距離減衰する。
よってLa1とLa2、およびLb1とLb2の距離差に応じて生ずる第1マイクロフォン11と第2マイクロフォン12の音圧の差を利用して装着者の発話音声であるか他者の発話音声であるかの自他識別の判定を行なうことが考えられる。
しかしながらこの方法では、装着者の発話音声に抑揚があったり、または装着者が腕組みをしたり、机に座ったりするような動作をする場合、想定通りの音圧を得ることができずに、自他識別について誤判定を起こすことがある。また、近くで他者が発話をする場合など周囲音声の大きさによっても誤判定を起こすことがある。
At this time, the sound pressure is attenuated according to the distance between the microphones 11 and 12 and the sound source.
Therefore, whether the voice is the voice of the wearer or the voice of the other using the difference in sound pressure between the first microphone 11 and the second microphone 12 generated according to the difference in distance between La1 and La2 and Lb1 and Lb2. It is conceivable to determine the self-other identification.
However, with this method, when the wearer's speech is inflected, or when the wearer performs an operation such as arm-arming or sitting at the desk, the expected sound pressure cannot be obtained, Misidentification may be caused about self-other identification. In addition, an erroneous determination may occur depending on the volume of the surrounding voice, such as when another person speaks nearby.

また一般サイドローブキャンセラによる方法により自他識別を行なった場合、目的方向の音声が設定方向からずれると、目的外方向の音声の抑制効果が小さくなり、装着者の音声にもかかわらず、他者の発話音声と判定されることが多くなる。また装着者の発話音声に抑揚があると、装着者の発話音声が小さい箇所で、他者の発話音声と判定されることが多くなる。   In addition, when self-other identification is performed by a method using a general sidelobe canceller, if the sound in the target direction deviates from the set direction, the effect of suppressing the sound in the non-target direction will be reduced, and the other party's voice will be ignored regardless of the wearer's voice. Are often determined to be uttered voices. In addition, if there is an inflection in the voice of the wearer, it is often determined that the voice of the wearer is the voice of the other person where the wearer's voice is small.

<音声解析部の説明>
そこで本実施形態では、音声解析部15を以下の構成とすることで、この問題の抑制を図っている。
図4は、本実施形態における音声解析部15の機能構成例を示した図である。
図示するように音声解析部15は、音声情報取得部151と、周波数スペクトル算出部152と、第1の目的方向信号スペクトル抽出部153と、第2の目的方向信号スペクトル抽出部154と、目的外方向信号スペクトル抽出部155と、目的方向強調スペクトル算出部156と、相関性算出部157と、自他識別部158とを備える。
<Explanation of speech analysis unit>
Therefore, in this embodiment, this problem is suppressed by configuring the voice analysis unit 15 as follows.
FIG. 4 is a diagram illustrating a functional configuration example of the voice analysis unit 15 in the present embodiment.
As illustrated, the voice analysis unit 15 includes a voice information acquisition unit 151, a frequency spectrum calculation unit 152, a first target direction signal spectrum extraction unit 153, a second target direction signal spectrum extraction unit 154, and a non-target A direction signal spectrum extraction unit 155, a target direction enhancement spectrum calculation unit 156, a correlation calculation unit 157, and an own / other identification unit 158 are provided.

音声情報取得部151は、信号情報取得部の一例であり、第1マイクロフォン11および第2マイクロフォン12により生成された音声に関する情報を取得する。本実施形態では音声情報取得部151は、マイクロフォン11、12により出力され、第1増幅器13および第2増幅器14を介して増幅された音声信号を音声に関する情報として取得する。   The audio information acquisition unit 151 is an example of a signal information acquisition unit, and acquires information related to audio generated by the first microphone 11 and the second microphone 12. In the present embodiment, the audio information acquisition unit 151 acquires the audio signal output from the microphones 11 and 12 and amplified through the first amplifier 13 and the second amplifier 14 as information related to audio.

周波数スペクトル算出部152は、第1マイクロフォン11および第2マイクロフォン12により生成されたそれぞれの音声に関する情報をフーリエ変換し、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める。即ち、第1マイクロフォン11および第2マイクロフォン12からの音声信号に対しフーリエ変換を行い、周波数スペクトルをそれぞれについて求める。   The frequency spectrum calculation unit 152 performs Fourier transform on information about each sound generated by the first microphone 11 and the second microphone 12, and uses the first frequency spectrum and the second frequency spectrum as frequency spectra representing the relationship between the frequency and the intensity. Each frequency spectrum is obtained. That is, the Fourier transform is performed on the audio signals from the first microphone 11 and the second microphone 12, and the frequency spectrum is obtained for each.

第1の目的方向信号スペクトル抽出部153は、第1の抽出部の一例であり、第1の周波数スペクトルと第2の周波数スペクトルとの差をとることで装着者の発声部位から発した音声を表す第1の目的方向信号スペクトル(第1の抽出スペクトル)を抽出する。この第1の目的方向信号スペクトルは、装着者の発声部位から発した信号が装着者の発声部位とは異なる方向から発した信号より大きくなる処理をしたものとなる。   The first target direction signal spectrum extraction unit 153 is an example of a first extraction unit, and the voice uttered from the wearer's utterance part by taking the difference between the first frequency spectrum and the second frequency spectrum. A first target direction signal spectrum to be expressed (first extracted spectrum) is extracted. The first target direction signal spectrum is obtained by processing such that a signal emitted from the wearer's utterance region is larger than a signal emitted from a direction different from the wearer's utterance region.

第2の目的方向信号スペクトル抽出部154は、第2の抽出部の一例であり、第1の周波数スペクトルと第2の周波数スペクトルとを加算することで装着者の発声部位から発した音声を表す第2の目的方向信号スペクトル(第2の抽出スペクトル)を抽出する。この第2の目的方向信号スペクトルも、装着者の発声部位から発した信号が装着者の発声部位とは異なる方向から発した信号より大きくなる処理をしたものとなる。
第1の目的方向信号スペクトルおよび第2の目的方向信号スペクトルについては後述する。
The second target direction signal spectrum extraction unit 154 is an example of a second extraction unit, and represents a voice uttered from the wearer's utterance part by adding the first frequency spectrum and the second frequency spectrum. A second target direction signal spectrum (second extracted spectrum) is extracted. This second target direction signal spectrum is also obtained by processing in which the signal emitted from the wearer's utterance part becomes larger than the signal emitted from a direction different from the utterance part of the wearer.
The first target direction signal spectrum and the second target direction signal spectrum will be described later.

目的外方向信号スペクトル抽出部155は、第3の抽出部の一例であり、第1の周波数スペクトルおよび第2の周波数スペクトルから、第1マイクロフォン11および第2マイクロフォン12により生成された音声に関する情報に含まれ、装着者の発声部位から発した音声以外の信号を表す目的外方向信号スペクトル(抑圧スペクトル)を抽出する。目的外方向信号スペクトルは、装着者の発声部位から発した信号を抑圧したものとなる。目的外方向信号スペクトルを抽出する具体的な方法については後述する。   The non-target direction signal spectrum extraction unit 155 is an example of a third extraction unit, and converts information related to the sound generated by the first microphone 11 and the second microphone 12 from the first frequency spectrum and the second frequency spectrum. A non-target direction signal spectrum (suppression spectrum) that is included and represents a signal other than a voice uttered from the uttered part of the wearer is extracted. The non-target direction signal spectrum is obtained by suppressing a signal emitted from the wearer's utterance part. A specific method for extracting the non-target direction signal spectrum will be described later.

目的方向強調スペクトル算出部156は、強調スペクトル算出部の一例であり、第1の目的方向信号スペクトルから目的外方向信号スペクトルを減算する(スペクトルサブストラクション処理)。さらにフロアリング処理を行なうことで装着者の発声部位から発した音声である目的方向信号を強調した目的方向強調スペクトルとして第1の目的方向強調スペクトルを求める。さらに目的方向強調スペクトル算出部156は、第2の目的方向信号スペクトルから目的外方向信号スペクトルを減算する(スペクトルサブストラクション処理)ことで目的方向強調スペクトルとして第2の目的方向強調スペクトルを求める。ここで行なわれるスペクトルサブストラクション処理、フロアリング処理等については後述する。   The target direction enhancement spectrum calculation unit 156 is an example of the enhancement spectrum calculation unit, and subtracts the non-target direction signal spectrum from the first target direction signal spectrum (spectral subtraction process). Further, by performing flooring processing, a first target direction enhancement spectrum is obtained as a target direction enhancement spectrum that emphasizes a target direction signal that is a voice uttered from the wearer's voice. Further, the target direction enhancement spectrum calculation unit 156 obtains the second target direction enhancement spectrum as the target direction enhancement spectrum by subtracting the non-target direction signal spectrum from the second target direction signal spectrum (spectral subtraction process). The spectral subtraction processing, flooring processing, and the like performed here will be described later.

相関性算出部157は、第1の目的方向強調スペクトルおよび第2の目的方向強調スペクトルを逆フーリエ変換し相関性を算出する。   The correlation calculation unit 157 calculates the correlation by performing inverse Fourier transform on the first target direction enhancement spectrum and the second target direction enhancement spectrum.

自他識別部158は、相関性算出部157により算出された相関性の情報を基に、マイクロフォン11、12により取得された音声が、装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別する。   Based on the correlation information calculated by the correlation calculation unit 157, the self-other identification unit 158 determines whether the voice acquired by the microphones 11 and 12 is the voice of the wearer or other person other than the wearer. Identify whether the voice is speech.

<端末装置の動作例>
図5は、本実施形態における端末装置10の動作を示すフローチャートである。また図6は、音声解析部15における信号処理のプロセスについて説明した図である。以下、図2、図4〜図6を使用して、端末装置10の動作について説明を行なう。
図5に示すように、端末装置10のマイクロフォン11、12が音声を取得すると、各マイクロフォン11、12から取得音声に応じた電気信号(音声信号)が第1増幅器13および第2増幅器14へ送られる(ステップ101)。第1増幅器13および第2増幅器14は、マイクロフォン11、12からの音声信号を取得すると、信号を増幅して音声解析部15へ送る(ステップ102)。
<Operation example of terminal device>
FIG. 5 is a flowchart showing the operation of the terminal device 10 in the present embodiment. FIG. 6 is a diagram illustrating a signal processing process in the voice analysis unit 15. Hereinafter, the operation of the terminal device 10 will be described with reference to FIGS. 2 and 4 to 6.
As shown in FIG. 5, when the microphones 11 and 12 of the terminal device 10 acquire sound, an electric signal (audio signal) corresponding to the acquired sound is transmitted from each microphone 11 and 12 to the first amplifier 13 and the second amplifier 14. (Step 101). When the first amplifier 13 and the second amplifier 14 acquire the audio signal from the microphones 11 and 12, the first amplifier 13 and the second amplifier 14 amplify the signal and send it to the audio analysis unit 15 (step 102).

音声解析部15の音声情報取得部151は、増幅された音声信号を取得する(ステップ103)。   The audio information acquisition unit 151 of the audio analysis unit 15 acquires the amplified audio signal (step 103).

図7は、音声情報取得部151で取得された音声信号の一例を示した図である。図7では、横軸は時間(s)を表し、縦軸は音声信号の強度を表す。
図示した例では、0s〜約5sの間に装着者が発話を行なう自己発話区間が存在する。そして約5s〜約10sの間に装着者以外の他者が発話を行なう他者発話区間が存在し、さらにその後の約10s〜約15sの間に装着者および他者の双方が発話を行なう自他発話区間が存在する。
FIG. 7 is a diagram illustrating an example of an audio signal acquired by the audio information acquisition unit 151. In FIG. 7, the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal.
In the illustrated example, there is a self-speaking section in which the wearer speaks between 0 s and about 5 s. There is an other person utterance section where another person other than the wearer speaks between about 5 s and about 10 s, and both the wearer and the other person speak between about 10 s and about 15 s. There is another utterance section.

音声情報取得部151は、この音声信号に対し、一定の時間単位(例えば、数十分の一秒〜数百分の一秒)毎に、各マイクロフォン11、12の取得音声における平均音圧を求める(ステップ104)。そして、平均音圧がある閾値以上であるか否か(利得が有るか否か)を判断する(ステップ105)。   The voice information acquisition unit 151 calculates the average sound pressure of the acquired voices of the microphones 11 and 12 for each predetermined time unit (for example, tens of seconds to hundreds of seconds). Obtain (step 104). Then, it is determined whether or not the average sound pressure is greater than or equal to a certain threshold (whether or not there is a gain) (step 105).

音声情報取得部151は、ステップ105で求めた各マイクロフォン11、12における平均音圧の利得が有る場合(ステップ105でYes)、発話音声がある(発話が行われた)と判断する。   If there is a gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 105 (Yes in step 105), the audio information acquisition unit 151 determines that there is an utterance voice (utterance has been performed).

そして周波数スペクトル算出部152が、第1マイクロフォン11および第2マイクロフォン12からの音声信号に対しフーリエ変換を行い、周波数スペクトルをそれぞれについて求める(ステップ106)。これは図8では、2箇所の「FFT(Fast Fourier Transform)」として図示している。これにより第1マイクロフォン11からの音声信号を基に第1の周波数スペクトルが求められ、第2マイクロフォン12からの音声信号を基に第2の周波数スペクトルが求められる。周波数スペクトル算出部152により音声信号は、時間領域から周波数領域に変換される。   Then, the frequency spectrum calculation unit 152 performs a Fourier transform on the audio signals from the first microphone 11 and the second microphone 12, and obtains the frequency spectrum for each (step 106). In FIG. 8, this is illustrated as two “FFT (Fast Fourier Transform)”. Thereby, the first frequency spectrum is obtained based on the audio signal from the first microphone 11, and the second frequency spectrum is obtained based on the audio signal from the second microphone 12. The audio signal is converted from the time domain to the frequency domain by the frequency spectrum calculation unit 152.

次に第1の目的方向信号スペクトル抽出部153が、第1の周波数スペクトルと第2の周波数スペクトルとの差をとることで装着者の発声部位から発した音声を表す第1の目的方向信号スペクトルを抽出する(ステップ107)。   Next, the first target direction signal spectrum extraction unit 153 takes the difference between the first frequency spectrum and the second frequency spectrum, thereby expressing the first target direction signal spectrum representing the voice uttered from the wearer's speaking part. Is extracted (step 107).

図8(a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルとの差をとったときに、装着者の発話音声と他者の発話音声とでどのようなスペクトルが抽出されるかを説明した図である。ここでは説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため図8(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。   FIGS. 8A and 8B show what kind of spectrum is extracted between the voice of the wearer and the voice of the other when the difference between the first frequency spectrum and the second frequency spectrum is taken. It is a figure explaining what is done. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in FIGS. 8A to 8B, the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal.

図8(a)では、装着者の発話音声がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。ここで第2マイクロフォン12は、第1マイクロフォン11より装着者の発声部位から遠い位置にあるため、音声信号は、第2マイクロフォン12の方が第1マイクロフォン11より時間的に遅れて到達する。よってこれらの音声信号の差をとったときは、これらの音声信号は両方ともそのまま残ることになる。   FIG. 8A shows an audio signal when the speech sound of the wearer is acquired by each of the microphones 11 and 12. Here, since the second microphone 12 is located farther from the wearer's utterance site than the first microphone 11, the audio signal reaches the second microphone 12 later in time than the first microphone 11. Therefore, when the difference between these audio signals is taken, both these audio signals remain as they are.

一方、図8(b)では、他者の発話音声がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。
ここで他者の音声等は、第1マイクロフォン11および第2マイクロフォン12に到達するまでの距離がほぼ同じとなるため、第1マイクロフォン11と第2マイクロフォン12とでほぼ同じ時に到達する。よってこれらの音声信号の差をとったときは、互いに相殺され振幅が小さくなる。
On the other hand, FIG. 8B shows a voice signal when another person's uttered voice is acquired by each of the microphones 11 and 12.
Here, the other person's voice or the like arrives at approximately the same time in the first microphone 11 and the second microphone 12 because the distances until they reach the first microphone 11 and the second microphone 12 are substantially the same. Therefore, when the difference between these audio signals is taken, they cancel each other and the amplitude becomes small.

このように第1の周波数スペクトルと第2の周波数スペクトルとの差をとったときには、装着者の発声部位から発した音声についての周波数スペクトルはそのまま残る一方で、その他の信号は、振幅が小さくなる。即ち、第1の周波数スペクトルと第2の周波数スペクトルとの差をとることで求められる第1の目的方向信号スペクトルは、装着者の発声部位から発した音声を表すものがより大きな部分を占める。即ち、装着者の発声部位から発した音声を抽出することができる。
なお以降、このようにして求められた第1の目的方向信号スペクトルを「α1」と言うことがある。
Thus, when the difference between the first frequency spectrum and the second frequency spectrum is taken, the frequency spectrum of the voice uttered from the wearer's voice part remains as it is, while the other signals have smaller amplitudes. . That is, in the first target direction signal spectrum obtained by taking the difference between the first frequency spectrum and the second frequency spectrum, the one representing the sound uttered from the wearer's utterance portion occupies a larger portion. That is, it is possible to extract the voice uttered from the uttered part of the wearer.
Hereinafter, the first target direction signal spectrum obtained in this way may be referred to as “α1”.

次に第2の目的方向信号スペクトル抽出部154が、第1の周波数スペクトルと第2の周波数スペクトルとを加算することで装着者の発声部位から発した音声を表す第2の目的方向信号スペクトルを抽出する(ステップ108)。
このとき第2の周波数スペクトルは、図6の「delay」で示した遅延回路を通過させることが好ましい。このとき遅延回路で調整される時間としては、装着者の発声部位と第1マイクロフォン11および第2マイクロフォン12との距離差により生じる音声が到達するまでの時間差となるようにする。つまりこれにより装着者の発声部位からの音声は、発声部位と第1マイクロフォン11および第2マイクロフォン12との距離差にかかわらず、ほぼ同じ時に到達したものとして扱うことができる。
Next, the second target direction signal spectrum extraction unit 154 adds the first frequency spectrum and the second frequency spectrum to generate a second target direction signal spectrum representing the voice uttered from the wearer's speaking part. Extract (step 108).
At this time, the second frequency spectrum is preferably passed through the delay circuit indicated by “delay” in FIG. At this time, the time adjusted by the delay circuit is set to be the time difference until the voice produced by the distance difference between the utterance part of the wearer and the first microphone 11 and the second microphone 12 arrives. In other words, the voice from the utterance part of the wearer can be treated as having arrived at almost the same time regardless of the distance difference between the utterance part and the first microphone 11 and the second microphone 12.

図9(a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルとを加算したときに、装着者の発話音声と他者の発話音声とでどのようなスペクトルが抽出されるかを説明した図である。なおここでも説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため図9(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。   9A and 9B, when the first frequency spectrum and the second frequency spectrum are added, what kind of spectrum is extracted between the voice of the wearer and the voice of the other person. FIG. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in FIGS. 9A to 9B, the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal.

図9(a)では、装着者の音声信号がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。ここで第2マイクロフォン12からの音声信号は、上述の遅延回路により調整され、見かけ上第1マイクロフォン11からの音声信号とほぼ同じ時に到達するようになっている。図9(a)では、この時間を「Δ」として図示している。この場合、第1の周波数スペクトルと第2の周波数スペクトルとを加算すると、その振幅が増幅され、より大きくなる。   FIG. 9A illustrates the sound signal when the wearer's sound signal is acquired by each of the microphones 11 and 12. Here, the audio signal from the second microphone 12 is adjusted by the above-described delay circuit, and apparently arrives at substantially the same time as the audio signal from the first microphone 11. In FIG. 9A, this time is shown as “Δ”. In this case, when the first frequency spectrum and the second frequency spectrum are added, the amplitude is amplified and becomes larger.

一方、図9(b)では、他者の発話音声がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。
ここで他者の音声等は、第1マイクロフォン11および第2マイクロフォン12に到達するまでの距離がほぼ同じとなるため、第1マイクロフォン11と第2マイクロフォン12とでほぼ同じ時に到達する。しかし第2マイクロフォン12からの音声信号は、上述の遅延回路により調整されるため、時間Δのずれが生じる。よって第1の周波数スペクトルと第2の周波数スペクトルとを加算すると、これらの音声信号は両方ともそのまま残ることになる。
On the other hand, FIG. 9B illustrates an audio signal when the voice of another person is acquired by each of the microphones 11 and 12.
Here, the other person's voice or the like arrives at approximately the same time in the first microphone 11 and the second microphone 12 because the distances until they reach the first microphone 11 and the second microphone 12 are substantially the same. However, since the audio signal from the second microphone 12 is adjusted by the delay circuit described above, a time Δ shift occurs. Therefore, when the first frequency spectrum and the second frequency spectrum are added, both of these audio signals remain as they are.

このように第1の周波数スペクトルと第2の周波数スペクトルとを加算したときには、装着者の発話音声についての周波数スペクトルは増幅される一方で、他者の発話音声についての周波数スペクトルは、そのまま残るが増幅はされない。即ち、第1の周波数スペクトルと第2の周波数スペクトルとを加算することで求められる第2の目的方向信号スペクトルは、装着者の発声部位から発した音声を表すものがより大きな部分を占める。即ち、装着者の発声部位から発した音声を抽出することができる。
なお以降、このようにして求められた第2の目的方向信号スペクトルを「α2」と言うことがある。
When the first frequency spectrum and the second frequency spectrum are added in this way, the frequency spectrum for the wearer's speech is amplified, while the frequency spectrum for the other's speech remains. There is no amplification. That is, the second target direction signal spectrum obtained by adding the first frequency spectrum and the second frequency spectrum occupies a larger portion that represents the voice uttered from the uttered part of the wearer. That is, it is possible to extract the voice uttered from the uttered part of the wearer.
Hereinafter, the second target direction signal spectrum obtained in this way may be referred to as “α2”.

次に目的方向強調スペクトル算出部156が、第1の周波数スペクトルおよび第2の周波数スペクトルから、目的外方向信号スペクトルを抽出する(ステップ109)。
より具体的には、目的外方向信号スペクトル抽出部155は、第1の周波数スペクトルと第2の周波数スペクトルについて、装着者の発声部位と第1マイクロフォン11および第2マイクロフォン12との距離差により生じ音声が到達するまでの時間差を調整した上で、それぞれの差を求めることで目的外方向信号スペクトルを抽出する。
Next, the target direction enhancement spectrum calculation unit 156 extracts a non-target direction signal spectrum from the first frequency spectrum and the second frequency spectrum (step 109).
More specifically, the non-target direction signal spectrum extraction unit 155 generates the first frequency spectrum and the second frequency spectrum due to the distance difference between the wearer's utterance site and the first microphone 11 and the second microphone 12. After adjusting the time difference until the voice arrives, the non-target direction signal spectrum is extracted by obtaining each difference.

図10(a)〜(b)は、第1の周波数スペクトルと第2の周波数スペクトルについて、装着者の発声部位と第1マイクロフォン11および第2マイクロフォン12との距離差により生じ音声が到達するまでの時間差を調整した上で、それぞれの差を求めたときに装着者の発話音声と他者の発話音声とでどのようなスペクトルが抽出されるかを説明した図である。なおここでも説明をわかりやすくするために周波数スペクトルではなく、フーリエ変換前の音声信号について説明を行なう。そのため図10(a)〜(b)において横軸は、時間(s)を表し、縦軸は、音声信号の強度を表す。   FIGS. 10A to 10B show the first frequency spectrum and the second frequency spectrum until the voice arrives due to the difference in the distance between the wearer's utterance part and the first microphone 11 and the second microphone 12. It is a figure explaining what kind of spectrum is extracted by a wearer's utterance voice and another person's utterance voice, when each time difference is adjusted and each difference is calculated. Here, in order to make the explanation easy to understand, not the frequency spectrum but an audio signal before Fourier transform will be explained. Therefore, in FIGS. 10A to 10B, the horizontal axis represents time (s), and the vertical axis represents the intensity of the audio signal.

図10(a)では、装着者の音声信号がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。ここで第2マイクロフォン12からの音声信号は、上述の遅延回路により調整され、見かけ上第1マイクロフォン11からの音声信号とほぼ同じ時に到達するようになっている。図10(a)では、この時間を「Δ」として図示している。この場合、第1の周波数スペクトルと第2の周波数スペクトルとの差を求めると、互いに相殺され振幅が小さくなる。   FIG. 10A illustrates the sound signal when the wearer's sound signal is acquired by each of the microphones 11 and 12. Here, the audio signal from the second microphone 12 is adjusted by the above-described delay circuit, and apparently arrives at substantially the same time as the audio signal from the first microphone 11. In FIG. 10A, this time is illustrated as “Δ”. In this case, when the difference between the first frequency spectrum and the second frequency spectrum is obtained, they are canceled out and the amplitude is reduced.

一方、図10(b)では、他者の発話音声がマイクロフォン11、12のそれぞれで取得されたときの音声信号を図示している。
ここで他者の音声は、第1マイクロフォン11および第2マイクロフォン12に到達するまでの距離がほぼ同じとなるため、第1マイクロフォン11と第2マイクロフォン12とでほぼ同じ時に到達する。しかし第2マイクロフォン12からの音声信号は、上述の遅延回路により調整されるため、時間Δのずれが生じる。よって第1の周波数スペクトルと第2の周波数スペクトルとの差を求めると、これらの音声信号は両方ともそのまま残ることになる。
On the other hand, FIG. 10B illustrates an audio signal when another person's speech is acquired by each of the microphones 11 and 12.
Here, since the distance until the other person's voice reaches the first microphone 11 and the second microphone 12 is substantially the same, the first microphone 11 and the second microphone 12 arrive at substantially the same time. However, since the audio signal from the second microphone 12 is adjusted by the delay circuit described above, a time Δ shift occurs. Therefore, when the difference between the first frequency spectrum and the second frequency spectrum is obtained, both of these audio signals remain as they are.

よってこの場合、装着者の発話音声についての周波数スペクトルは振幅が小さくなる一方で、他者の発話音声についての周波数スペクトルは、そのまま残る。即ち、この場合は、装着者の発声部位から発した音声以外の信号を表すものがより大きな部分を占める。即ち、装着者の発声部位から発した音声以外の信号を抽出することができる。
なお以降、このようにして求められた目的外方向信号スペクトルを「β」と言うことがある。
Therefore, in this case, the frequency spectrum of the wearer's uttered voice has a small amplitude, while the frequency spectrum of the other person's uttered voice remains. That is, in this case, a signal representing a signal other than the voice uttered from the uttered part of the wearer occupies a larger part. That is, a signal other than the voice uttered from the wearer's utterance part can be extracted.
Hereinafter, the non-target direction signal spectrum obtained in this way may be referred to as “β”.

次に目的方向強調スペクトル算出部156は、第1の目的方向信号スペクトルα1から目的外方向信号スペクトルβを減算し、さらにフロアリング処理を行なうことで装着者の発声部位から発した音声である目的方向信号を強調した目的方向強調スペクトルとして第1の目的方向強調スペクトルを求める(ステップ110)。   Next, the target direction emphasis spectrum calculation unit 156 subtracts the non-target direction signal spectrum β from the first target direction signal spectrum α1 and further performs flooring processing to thereby generate a target voice that is uttered from the wearer's voice part. A first target direction enhancement spectrum is obtained as a target direction enhancement spectrum in which the direction signal is enhanced (step 110).

つまりここでは、まず「α1−β」の周波数スペクトルを求めることになる(スペクトルサブストラクション処理)。このとき装着者の発話音声については、概念的には、図8(a)の結果から図10(a)の結果の差をとるものとなるため、α1−β>0となる。対して他者の発話音声については、概念的には、図8(b)の結果から図10(b)の結果の差をとるものとなるため、α1−β<0となる。   That is, here, the frequency spectrum of “α1−β” is first obtained (spectral subtraction process). At this time, about the speech voice of the wearer, since the difference between the result of FIG. 8A and the result of FIG. 10A is conceptually taken, α1−β> 0. On the other hand, the other person's speech is conceptually the difference between the result of FIG. 8B and the result of FIG. 10B, and α1−β <0.

またフロアリング処理とは、実データに含まれる小さな値をそのまま用いずに適当な数値に置き換える処理を言う。置き換える値の例としては、例えば、「0」や「0.1」等の数値となるが、本実施の形態では、本実施の形態では、「0」に置き換えるものとする。   The flooring process is a process of replacing small values included in actual data with appropriate numerical values without using them as they are. As an example of the replacement value, for example, a numerical value such as “0” or “0.1” is used. However, in this embodiment, it is replaced with “0” in this embodiment.

本実施の形態では、このフロアリング処理をα1−β<0の場合に適用する。そうすると「α1−β」の周波数スペクトルは、装着者の発話音声については、そのまま「α1−β」の値となり、他者の発話音声については、0となる。結局、この周波数スペクトルは、装着者の発声部位から発した音声である目的方向信号を強調した目的方向強調スペクトルとなる。
なお以降、このようにして求められた第1の目的方向強調スペクトルを「SS1」と言うことがある。
In the present embodiment, this flooring process is applied when α1-β <0. Then, the frequency spectrum of “α1-β” becomes the value of “α1-β” as it is for the utterance voice of the wearer, and becomes 0 for the utterance voice of the other person. Eventually, this frequency spectrum becomes a target direction enhancement spectrum in which a target direction signal which is a voice uttered from a wearer's utterance part is emphasized.
Hereinafter, the first target direction enhancement spectrum obtained in this way may be referred to as “SS1”.

さらに目的方向強調スペクトル算出部156は、第2の目的方向信号スペクトルα2から目的外方向信号スペクトルβを減算することで目的方向強調スペクトルとして第2の目的方向強調スペクトルを求める(ステップ111)。   Further, the target direction enhancement spectrum calculation unit 156 obtains the second target direction enhancement spectrum as the target direction enhancement spectrum by subtracting the non-target direction signal spectrum β from the second target direction signal spectrum α2 (step 111).

つまりここでは、「α2−β」の周波数スペクトルを求めることになる(スペクトルサブストラクション処理)。このとき装着者の発声部位から発した音声については、概念的には、図9(a)の結果から図10(a)の結果の差をとるものとなる。またそれ以外の信号については、概念的には、図9(b)の結果から図10(b)の結果の差をとるものとなる。こちらではフロアリング処理は、行なわないため、双方とも「α2−β」の値となる。   That is, here, the frequency spectrum of “α2−β” is obtained (spectral subtraction process). At this time, the voice uttered from the uttered part of the wearer conceptually takes the difference between the result of FIG. 9A and the result of FIG. 10A. For other signals, conceptually, the difference between the results in FIG. 9B and the results in FIG. 10B is taken. Here, since the flooring process is not performed, both values are “α2−β”.

ただし、図9(a)の結果から図10(a)の結果の差と、図9(b)の結果から図10(b)の結果の差を比較した場合、前者の方が大きい振幅となる。結局、この周波数スペクトルについても、装着者の発声部位から発した音声である目的方向信号を強調した目的方向強調スペクトルとなる。
なお以降、このようにして求められた第2の目的方向強調スペクトルを「SS2」と言うことがある。
However, when the difference between the result of FIG. 10A from the result of FIG. 9A and the difference of the result of FIG. 10B from the result of FIG. 9B is compared, the former has a larger amplitude. Become. Eventually, this frequency spectrum also becomes a target direction enhancement spectrum in which a target direction signal that is a voice uttered from the wearer's utterance portion is emphasized.
Hereinafter, the second target direction enhancement spectrum thus obtained may be referred to as “SS2”.

このように本実施の形態では、周波数スペクトルにおいてスペクトルサブストラクション処理を行なうことで、装着者の発声部位から発した音声を表す目的方向信号を強調するとともに、他者の音声を表す目的外方向信号を抑制した目的方向強調スペクトルを2つ作成する。周波数スペクトルでこのような処理を行なうことで、音声信号をそのまま処理するより、目的方向信号をより強調し、目的外方向信号をより抑制することができる。これは複数の音声が混合していても、周波数領域で見ると信号のエネルギーがまばらにしか存在しないというスパーツ性を利用している。   As described above, in the present embodiment, by performing spectral subtraction processing in the frequency spectrum, the target direction signal representing the voice uttered from the wearer's uttered part is emphasized, and the non-target direction signal representing the voice of the other person Two target direction emphasizing spectra with suppressed are generated. By performing such processing on the frequency spectrum, the target direction signal can be more emphasized and the non-target direction signal can be suppressed more than the voice signal is processed as it is. This uses the spurt nature that even when multiple sounds are mixed, the signal energy exists only sparsely in the frequency domain.

次に相関性算出部157が、第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2をそれぞれ逆フーリエ変換する(ステップ112)。これは図6では、2箇所の「IFFT(Inverse Fast Fourier Transform)」として図示している。これにより第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2は、音声信号に戻ることになる。これにより第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2は、周波数領域から時間領域に変換される。   Next, the correlation calculation unit 157 performs inverse Fourier transform on the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 (step 112). In FIG. 6, this is illustrated as two “IFFT (Inverse Fast Fourier Transform)”. As a result, the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 return to the audio signal. As a result, the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 are converted from the frequency domain to the time domain.

そして相関性算出部157は、第1の目的方向強調スペクトルと第2の目的方向強調スペクトルに対する相関性を算出する(ステップ113)。なおここでは、この算出は逆フーリエ変換を行なった後で行なっているが、逆フーリエ変換を行なわずに行なってもよい。   Then, the correlation calculation unit 157 calculates the correlation between the first target direction enhancement spectrum and the second target direction enhancement spectrum (step 113). Here, this calculation is performed after performing the inverse Fourier transform, but may be performed without performing the inverse Fourier transform.

そして相関性算出部157が、予め定められた閾値と比較して、この両者の相関性が高いと算出した場合(ステップ113でYes)、自他識別部158は、マイクロフォン11、12により取得された音声が、装着者の発話音声であると判定する(ステップ114)。また相関性算出部157が、この両者の相関性が低いと算出した場合(ステップ113でNo)、自他識別部158は、装着者の発話音声ではなく、他者の発話音声であると判定する(ステップ115)。なおステップ104で求めた各マイクロフォン11、12における平均音圧の利得が無い場合(ステップ105でNo)、自他識別部158は、発話音声が無い(発話が行われていない)と判断する(ステップ116)。なお、相関性の高低を定める閾値は、相関性算出部157が定めても良いし、一度、第1の目的方向強調スペクトルと第2の目的方向強調スペクトルについて算出した相関値を解析者に提示して、解析者に閾値を定めさせても良い。   When the correlation calculation unit 157 calculates that the correlation between the two is high compared to a predetermined threshold (Yes in step 113), the self-other identification unit 158 is acquired by the microphones 11 and 12. It is determined that the received voice is the voice of the wearer (step 114). If the correlation calculation unit 157 calculates that the correlation between the two is low (No in step 113), the own / other identification unit 158 determines that the speech is not the wearer's speech but the speech of the other person. (Step 115). If there is no gain of the average sound pressure in each of the microphones 11 and 12 obtained in step 104 (No in step 105), the own / other identification unit 158 determines that there is no uttered voice (no utterance is performed) ( Step 116). The threshold for determining the level of correlation may be determined by the correlation calculation unit 157, or the correlation values calculated for the first target direction enhancement spectrum and the second target direction enhancement spectrum are presented to the analyst once. Then, the analyst may determine the threshold value.

図11〜図13は、第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2について示した具体例である。
このうち図11は、装着者の発話音声についての第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2の例である。図示するようにこの両者の相関性は高いことがわかる。
FIGS. 11 to 13 are specific examples showing the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2.
Among these, FIG. 11 is an example of the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 for the speech of the wearer. As shown in the figure, it is understood that the correlation between the two is high.

また図12は、他者の発話音声についての第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2の例である。ここでは第1の目的方向強調スペクトルSS1は、フロアリング処理が行なわれているため、振幅が0となる。そのためこの両者の相関性は、低いことがわかる。   FIG. 12 is an example of the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 for the speech of another person. Here, the amplitude of the first target direction enhancement spectrum SS1 is 0 because the flooring process is performed. Therefore, it can be seen that the correlation between the two is low.

さらに図13は、装着者の発話音声と他者の発話音声の双方がマイクロフォン11、12により取得されたときの第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2の例である。このときも図11の場合と同様にこの両者の相関性は高いことがわかる。   Further, FIG. 13 is an example of the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2 when both the voice of the wearer and the voice of the other person are acquired by the microphones 11 and 12. . Also at this time, the correlation between the two is high as in the case of FIG.

以下の事項をまとめると下記の表1のようになる。   The following items are summarized as shown in Table 1 below.

Figure 0006369022
Figure 0006369022

相関性算出部157において相関性を求めるためには、既存の方法を使用することができる。例えば、第1の目的方向強調スペクトルSS1および第2の目的方向強調スペクトルSS2について相互相関係数を求め、この相関係数の値により両者の相関性を算出する。また相互相関関数を使用する方法でもよい。ただし、相互相関係数よりも相互相関関数を使用した場合の方が、自他識別の精度がより向上する。   In order to obtain the correlation in the correlation calculation unit 157, an existing method can be used. For example, a cross-correlation coefficient is obtained for the first target direction enhancement spectrum SS1 and the second target direction enhancement spectrum SS2, and the correlation between the two is calculated based on the value of the correlation coefficient. Alternatively, a method using a cross correlation function may be used. However, the accuracy of self-other identification is further improved when the cross-correlation function is used rather than the cross-correlation coefficient.

図14は、図7で示した音声信号に対し、図4以降で説明を行なった処理を行なった結果を示した図である。図14では、横軸は時間(s)を表し、縦軸は相互相関係数の値を標準化して表している。
0s〜約5sの間の装着者が発話を行なう自己発話区間では、相互相関係数の値は高く、この区間では、マイクロフォン11、12により取得された音声が、装着者の発声音声であると判定できる。また約5s〜約10sの間の他者発話区間では、相互相関係数の値は低く、この区間では、マイクロフォン11、12により取得された音声が、装着者の発声音声であると判定できる。さらにその後の約10s〜約15sの間の自他発話区間では、相互相関係数の値は高く、この区間では、マイクロフォン11、12により取得された音声に、装着者の発声音声が含まれていることが判定できる。
FIG. 14 is a diagram showing a result of performing the processing described in FIG. 4 and subsequent drawings on the audio signal shown in FIG. In FIG. 14, the horizontal axis represents time (s), and the vertical axis represents the standardized value of the cross-correlation coefficient.
In the self-speaking section where the wearer utters between 0 s and about 5 s, the value of the cross-correlation coefficient is high. In this section, the voice acquired by the microphones 11 and 12 is the voice of the wearer. Can be judged. Further, the cross-correlation coefficient is low in the other person utterance section between about 5 s and about 10 s, and in this section, it can be determined that the voice acquired by the microphones 11 and 12 is the voice of the wearer. Further, in the subsequent self-other speech period of about 10 s to about 15 s, the value of the cross-correlation coefficient is high, and in this period, the voices acquired by the microphones 11 and 12 include the voice of the wearer. Can be determined.

この後、音声解析部15は、データ送信部16を介して、ステップ104〜ステップ116の処理で得られた情報を解析結果としてホスト装置20へ送信する。この解析結果としては、例えば、発話の有無、装着者の情報(端末ID)、マイクロフォン11、12により取得された音声が装着者の発話音声であるか装着者以外の他者の発話音声であるかを識別した情報である自他識別情報等である。またこのとき、発話者毎(装着者自身または他者)の発話時間の長さや平均音圧の利得の値、その他の付加情報を解析結果と共にホスト装置20へ送信させてもよい。   Thereafter, the voice analysis unit 15 transmits the information obtained by the processing of Step 104 to Step 116 to the host device 20 as an analysis result via the data transmission unit 16. As the analysis result, for example, presence / absence of utterance, wearer's information (terminal ID), and voices acquired by the microphones 11 and 12 are voices of the wearer or voices of others other than the wearer. This is self-other identification information, etc., that is information identifying the above. At this time, the length of the utterance time for each speaker (the wearer himself or another person), the value of the average sound pressure gain, and other additional information may be transmitted to the host device 20 together with the analysis result.

本実施の形態では、装着者の発声部位から発した音声を表す目的方向信号を強調し、他者の音声を表す目的外方向信号を抑制した目的方向強調スペクトルを2つ作成する(第1の目的方向強調スペクトル、第2の目的方向強調スペクトル)。そしてこれらの相関性によりマイクロフォン11、12により取得された音声の自他識別を行なう。この手法によれば、音声の強弱ではなく波形の類似性により装着者の発話音声であるか他者の発話音声であるかの判定を行なう。即ち、装着者の発話音声に抑揚があるような場合でも、この判定をより精度よく行なうことが可能となる。よって図3〜図5で説明を行なった音圧を利用する場合や一般サイドローブキャンセラによる方法よりも自他識別の精度が、より向上する。そして自己発話区間とそれ以外の区間とを区別することが、より容易となる。即ち、装着者の発話音声に抑揚等がある場合でも、連続して自己発話区間を特定することができる。対して図3〜図5で説明を行なった音圧を利用する場合や一般サイドローブキャンセラによる方法では、自己発話区間内でも他者発話区間が存在するものと判定されることが多いため、自己発話区間が細かく分断され、自己発話区間を正確に把握することができない。   In the present embodiment, two target direction enhancement spectra are generated by emphasizing the target direction signal representing the voice uttered from the uttered part of the wearer and suppressing the non-target direction signal representing the voice of the other person (first). Target direction enhancement spectrum, second target direction enhancement spectrum). Based on these correlations, the voices acquired by the microphones 11 and 12 are identified. According to this method, it is determined whether the voice is the wearer's speech or the other's speech based on the similarity of the waveform rather than the strength of the speech. That is, even when there is an inflection in the wearer's spoken voice, this determination can be performed with higher accuracy. Therefore, when using the sound pressure described with reference to FIGS. 3 to 5 and the method using the general sidelobe canceller, the accuracy of self-other identification is further improved. And it becomes easier to distinguish the self-speaking section from other sections. That is, even when the wearer's utterance voice has an inflection or the like, the self-speaking section can be continuously specified. On the other hand, in the case of using the sound pressure described in FIGS. 3 to 5 and the method using the general sidelobe canceller, it is often determined that the other person's utterance section exists even in the self utterance section. The utterance section is finely divided, and the self utterance section cannot be accurately grasped.

本実施の形態では、自他識別の精度が、例えば、正解率が80%となる。なお上述した第1の目的方向強調スペクトルおよび第2の目的方向強調スペクトルの一方のみを使用して、自他識別を行なう方法では、正解率が低下する。さらに図3〜図5で説明を行なった方法では、さらに正解率が低下し、正解率が、例えば、30%となる。   In the present embodiment, the accuracy of self-other identification is, for example, the accuracy rate is 80%. Note that the accuracy rate decreases in the method of performing self-other identification using only one of the first target direction enhancement spectrum and the second target direction enhancement spectrum described above. Further, in the method described with reference to FIGS. 3 to 5, the accuracy rate further decreases, and the accuracy rate becomes, for example, 30%.

なお装着者の発声部位は、装着者が顔の向きを変化させる等により動くことがある。この場合、装着者の顔の可動範囲内で装着者の発声部位と第1マイクロフォン11および第2マイクロフォンとの間の角度θが変化し、これに応じて装着者の音声が第1マイクロフォン11および第2マイクロフォンに到達するまでの時間差Δが変化する。よってこれに対応するには、この角度θに応じた上記時間差Δを何通りか(例えば、3通り)求めておき、そして目的外方向信号スペクトルβが最も小さくなるときの時間差Δを採用する。   Note that the wearer's utterance region may move when the wearer changes the orientation of the face. In this case, the angle θ between the utterance part of the wearer and the first microphone 11 and the second microphone is changed within the movable range of the wearer's face, and the voice of the wearer is changed accordingly. The time difference Δ until reaching the second microphone changes. Therefore, in order to cope with this, several (for example, three) time differences Δ according to the angle θ are obtained, and the time difference Δ when the non-target direction signal spectrum β becomes the smallest is adopted.

<システムの適用例とホスト装置の機能>
本実施形態のシステムでは、複数の端末装置10により上記のようにして得られた発話に関する情報(以下、発話情報)がホスト装置20に集められる。ホスト装置20は、複数の端末装置10から得られた情報を用いて、例えば、装着者同士の会話関係を解析する。
<System application examples and host device functions>
In the system of the present embodiment, information related to utterances (hereinafter referred to as utterance information) obtained as described above by a plurality of terminal devices 10 is collected in the host device 20. For example, the host device 20 analyzes the conversation relationship between the wearers using the information obtained from the plurality of terminal devices 10.

図15は、本実施形態の端末装置10をそれぞれ装着した複数の装着者が会話している状況を示す図である。図16は、図15の会話状況における各端末装置10A、10Bの発話情報の例を示す図である。
図15に示すように、端末装置10をそれぞれ装着した二人の装着者A、装着者Bが会話している場合を考える。このとき、装着者Aの端末装置10Aにおいて装着者の発話として認識される音声は、装着者Bの端末装置10Bでは他者の発話として認識される。反対に、端末装置10Bにおいて装着者の発話音声として認識される音声は、端末装置10Aでは他者の発話音声として認識される。
FIG. 15 is a diagram illustrating a situation in which a plurality of wearers each wearing the terminal device 10 of the present embodiment are talking. FIG. 16 is a diagram illustrating an example of utterance information of the terminal devices 10A and 10B in the conversation state of FIG.
As shown in FIG. 15, consider a case where two wearers A and B who wear the terminal device 10 are talking. At this time, the voice recognized as the utterance of the wearer in the terminal device 10A of the wearer A is recognized as the utterance of the other person in the terminal device 10B of the wearer B. On the contrary, the voice recognized as the voice of the wearer in the terminal device 10B is recognized as the voice of the other person in the terminal device 10A.

端末装置10Aおよび端末装置10Bからは、それぞれ独立に、発話情報がホスト装置20に送られる。このとき、端末装置10Aから取得した発話情報と、端末装置10Bから取得した発話情報とは、図16に示すように、発話者(装着者と他者)の識別結果は反対になるが、発話時間の長さや発話者が切り替わったタイミング等の発話状況を示す情報は近似する。そこで、本実施例のホスト装置20は、端末装置10Aから取得した情報と端末装置10Bから取得した情報とを比較することにより、これらの情報が同じ発話状況を示していると判断し、装着者Aと装着者Bとが会話していることを認識する。ここで、発話状況を示す情報としては、少なくとも、上述した発話者ごとの個々の発話における発話時間の長さ、個々の発話の開始時刻と終了時刻、発話者が切り替わった時刻(タイミング)等のように、発話に関する時間情報が用いられる。なお、特定の会話に係る発話状況を判断するために、これらの発話に関する時間情報の一部のみを用いても良いし、他の情報を付加的に用いても良い。   The utterance information is sent to the host device 20 independently from the terminal device 10A and the terminal device 10B. At this time, the utterance information acquired from the terminal device 10A and the utterance information acquired from the terminal device 10B are opposite in the identification result of the speaker (wearer and other person), as shown in FIG. Information indicating the utterance status such as the length of time and the timing when the speaker is switched is approximated. Therefore, the host device 20 according to the present embodiment compares the information acquired from the terminal device 10A with the information acquired from the terminal device 10B, thereby determining that these information indicate the same utterance situation, and the wearer Recognizing that A and the wearer B are talking. Here, the information indicating the utterance state includes at least the length of the utterance time in each utterance for each utterer described above, the start time and end time of each utterance, and the time (timing) at which the utterer is switched. As described above, the time information related to the utterance is used. Note that in order to determine the utterance situation related to a specific conversation, only part of the time information related to these utterances may be used, or other information may be additionally used.

このように端末装置10の装着者同士の会話関係を解析することで、装着者のグループ全体におけるコミュニケーションの傾向を分析することができる。具体的には、例えば、会話参加者の数、会話が行われた時間、対話度、活性度などの値と会話の発生頻度との相関関係を調べることで、装着者のグループにおいてどのような態様の会話が行われる傾向があるかが判断される。   By analyzing the conversation relationship between the wearers of the terminal device 10 in this way, it is possible to analyze the communication tendency in the entire group of wearers. Specifically, for example, by examining the correlation between the number of conversation participants, the time during which the conversation was conducted, the degree of interaction, the degree of activity, and the frequency of occurrence of conversation, It is determined whether there is a tendency for the conversation of the aspect to be performed.

<プログラムの説明>
なお本実施形態における端末装置10の音声解析部15が行なう処理は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、端末装置10に設けられた制御用コンピュータ内部の図示しないCPUが、端末装置10の各機能を実現するプログラムを実行し、これらの各機能を実現させる。
<Description of the program>
Note that the processing performed by the voice analysis unit 15 of the terminal device 10 in the present embodiment is realized by cooperation between software and hardware resources. That is, a CPU (not shown) inside the control computer provided in the terminal device 10 executes a program that realizes each function of the terminal device 10 and realizes each of these functions.

よって端末装置10の音声解析部15が行なう処理は、コンピュータに、装着者の発声部位から異なる距離にて配され、装着者の発声部位から発した音声を取得する、第1マイクロフォン11および第2マイクロフォン12により生成された音声に関する情報をそれぞれ取得する機能と、第1マイクロフォン11および第2マイクロフォン12により生成されたそれぞれの音声に関する情報をフーリエ変換し、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める機能と、第1の周波数スペクトルと第2の周波数スペクトルとから、装着者の発声部位から発した信号が装着者の発声部位とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する機能と、第1の抽出スペクトルを抽出する機能とは異なる処理により、第1の周波数スペクトルと第2の周波数スペクトルとから、装着者の発声部位から発した信号が装着者の発声部位とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する機能と、第1の周波数スペクトルおよび第2の周波数スペクトルから、装着者の発声部位から発した信号を抑圧した抑圧スペクトルを抽出する機能と、第1の抽出スペクトルから抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、第2の抽出スペクトルから抑圧スペクトルを減算することで第2の強調スペクトルを求める機能と、第1の強調スペクトルおよび第2の強調スペクトルを逆フーリエ変換し相関性を算出する機能と、を実現させるプログラムとして捉えることもできる。 Therefore, the processing performed by the voice analysis unit 15 of the terminal device 10 is arranged at different distances from the wearer's utterance part on the computer, and acquires the voice uttered from the wearer's utterance part. A function of acquiring information related to the sound generated by the microphone 12 and a Fourier transform of the information related to the sound generated by the first microphone 11 and the second microphone 12 as a frequency spectrum representing the relationship between frequency and intensity. The signal emitted from the wearer's utterance part is different from the utterance part of the wearer from the function of obtaining the first frequency spectrum and the second frequency spectrum, respectively, and the first frequency spectrum and the second frequency spectrum. First extracted spectrum processed to be larger than the signal emitted from the direction A function of extracting, by a different process and function of extracting first extraction spectrum, and a first frequency spectrum and the second frequency spectrum, the signal emitted from speaking portion of the wearer is speaking portion of the wearer The function of extracting the second extracted spectrum that has been processed to be larger than the signal emitted from a direction different from the above, and the signal emitted from the wearer's utterance region from the first frequency spectrum and the second frequency spectrum were suppressed. The function of extracting the suppression spectrum, subtracting the suppression spectrum from the first extraction spectrum, performing the flooring process to obtain the first enhancement spectrum, and subtracting the suppression spectrum from the second extraction spectrum A function for obtaining two enhancement spectra, and inverse Fourier transform of the first enhancement spectrum and the second enhancement spectrum. A function of calculating the relationship of, can be regarded as a program for actualizing.

なお、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。   The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

以上、本実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更または改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。   Although the present embodiment has been described above, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear from the description of the scope of the claims that various modifications or improvements added to the above embodiment are also included in the technical scope of the present invention.

例えば、上述した例では、自他識別の判断を端末装置10で行なっていたが、これに限られるものではなく、ホスト装置20の方で行なってもよい。この形態における音声解析システム1としては、音声解析部15で行なっていた処理を、例えば、ホスト装置20のデータ解析部23で行なう。この音声解析システム1においては、ホスト装置20のデータ解析部23が、信号解析装置(識別手段)として機能する。   For example, in the above-described example, the self-other identification is determined by the terminal device 10, but is not limited thereto, and may be performed by the host device 20. In the speech analysis system 1 in this embodiment, the processing performed by the speech analysis unit 15 is performed by, for example, the data analysis unit 23 of the host device 20. In the speech analysis system 1, the data analysis unit 23 of the host device 20 functions as a signal analysis device (identification means).

また上述した例では、目的外方向から到来する信号を他者の発話音声としていたが、これに限られるものではない。例えば、ノイズ等であってもよい。   In the above-described example, the signal arriving from the non-target direction is used as the speech of another person. However, the present invention is not limited to this. For example, noise may be used.

さらに上述した例では、信号が音声の場合を例示したが、これに限られるものではない。例えば、信号として光、赤外線、電波等の電磁波や、地震波等の振動波であってもよい。この場合、信号取得手段は、マイクロフォンではなく、これらの電磁波や振動波を捉えるセンサ等となる。   Further, in the above-described example, the case where the signal is audio is illustrated, but the present invention is not limited to this. For example, the signal may be an electromagnetic wave such as light, infrared rays or radio waves, or a vibration wave such as a seismic wave. In this case, the signal acquisition means is not a microphone but a sensor for capturing these electromagnetic waves and vibration waves.

1…音声解析システム、10…端末装置、11…第1マイクロフォン、12…第2マイクロフォン、15…音声解析部、20…ホスト装置、151…音声情報取得部、152…周波数スペクトル算出部、153…第1の目的方向信号スペクトル抽出部、154…第2の目的方向信号スペクトル抽出部、155…目的外方向信号スペクトル抽出部、156…目的方向強調スペクトル算出部、157…相関性算出部、158…自他識別部 DESCRIPTION OF SYMBOLS 1 ... Voice analysis system, 10 ... Terminal device, 11 ... 1st microphone, 12 ... 2nd microphone, 15 ... Voice analysis part, 20 ... Host apparatus, 151 ... Voice information acquisition part, 152 ... Frequency spectrum calculation part, 153 ... First target direction signal spectrum extraction unit, 154 ... second target direction signal spectrum extraction unit, 155 ... non-target direction signal spectrum extraction unit, 156 ... target direction enhancement spectrum calculation unit, 157 ... correlation calculation unit, 158 ... Self-other identification part

Claims (12)

信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する信号情報取得部と、
前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、
前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する第1の抽出部と、
前記第1の抽出部とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する第2の抽出部と、
前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する第3の抽出部と、
前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める強調スペクトル算出部と、
前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、
を備えることを特徴とする信号解析装置。
Signal information acquisition for acquiring information related to the signals generated by the first signal acquisition means and the second signal acquisition means, which are arranged at different distances from the signal generation source and acquire signals emitted from the signal generation source. And
From the information about each signal generated by the first signal acquisition unit and the second signal acquisition unit, the first frequency spectrum and the second frequency spectrum are represented as frequency spectra representing the relationship between frequency and intensity. A frequency spectrum calculation unit to be obtained;
Extracting from the first frequency spectrum and the second frequency spectrum a first extracted spectrum that is processed such that a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source. A first extraction unit that
By a process different from that of the first extraction unit, a signal emitted from the signal generation source from a signal emitted from a direction different from the signal generation source from the first frequency spectrum and the second frequency spectrum. A second extraction unit that extracts a second extracted spectrum that has been processed to increase;
A third extraction unit for extracting, from the first frequency spectrum and the second frequency spectrum, a suppression spectrum in which a signal emitted from the signal generation source is suppressed;
The suppression spectrum is subtracted from the first extracted spectrum, and a first enhancement spectrum is obtained by performing a flooring process, and the second enhancement spectrum is subtracted from the second extraction spectrum. An enhanced spectrum calculation unit for obtaining
A correlation calculating unit that calculates correlation between the first enhanced spectrum and the second enhanced spectrum;
A signal analyzing apparatus comprising:
前記第1の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルとの差をとることで、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理を行う
ことを特徴とする請求項1に記載の信号解析装置。
The first extraction unit takes a difference between the first frequency spectrum and the second frequency spectrum, so that a signal emitted from the signal generation source is emitted from a direction different from the signal generation source. The signal analysis apparatus according to claim 1, wherein a larger process is performed.
前記第2の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルを加算することで、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理を行う
ことを特徴とする請求項1または2に記載の信号解析装置。
The second extraction unit adds the first frequency spectrum and the second frequency spectrum so that a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source. The signal analyzing apparatus according to claim 1, wherein the signal analyzing apparatus performs the following process.
前記第1の信号取得手段および前記第2の信号取得手段は、前記信号発生源、当該第1の信号取得手段および当該第2の信号取得手段がほぼ一直線上になるように配されることを特徴とする請求項1乃至3の何れか1項に記載の信号解析装置。   The first signal acquisition means and the second signal acquisition means are arranged so that the signal generation source, the first signal acquisition means, and the second signal acquisition means are substantially in a straight line. The signal analysis device according to claim 1, wherein the signal analysis device is a signal analysis device. 前記第3の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルについて、前記信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との距離差により生じ前記信号が到達するまでの時間差を調整した上で、それぞれの差を求めることで前記抑圧スペクトルを抽出することを特徴とする請求項1乃至4の何れか1項に記載の信号解析装置。   The third extraction unit is caused by a difference in distance between the signal generation source, the first signal acquisition unit, and the second signal acquisition unit with respect to the first frequency spectrum and the second frequency spectrum. 5. The signal analysis apparatus according to claim 1, wherein the suppression spectrum is extracted by adjusting each time difference until the signal arrives and then obtaining each difference. 6. 前記第2の抽出部は、前記第1の周波数スペクトルと前記第2の周波数スペクトルについて、前記信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との距離差により生じ前記信号が到達するまでの時間差を調整した上で、それぞれを加算することで前記第2の抽出スペクトルを抽出することを特徴とする請求項3に記載の信号解析装置。   The second extraction unit is caused by a difference in distance between the signal generation source, the first signal acquisition unit, and the second signal acquisition unit with respect to the first frequency spectrum and the second frequency spectrum. The signal analysis apparatus according to claim 3, wherein the second extracted spectrum is extracted by adding each after adjusting a time difference until the signal arrives. 前記信号発生源が動くことにより生じる、当該信号発生源と前記第1の信号取得手段および前記第2の信号取得手段との間の角度の変化を考慮して前記時間差を決めることを特徴とする請求項5または6に記載の信号解析装置。   The time difference is determined in consideration of a change in angle between the signal generation source and the first signal acquisition unit and the second signal acquisition unit, which is generated by the movement of the signal generation source. The signal analysis apparatus according to claim 5 or 6. 前記信号は、音声であることを特徴とする請求項1乃至7の何れか1項に記載の信号解析装置。   The signal analysis apparatus according to claim 1, wherein the signal is a voice. 前記周波数スペクトル算出部は、前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報をフーリエ変換することで、前記第1の周波数スペクトルおよび前記第2の周波数スペクトルをそれぞれ求め、
前記相関性算出部は、前記第1の強調スペクトルと前記第2の強調スペクトルを逆フーリエ変換した後でそれぞれの相関性を算出することを特徴とする請求項1乃至8の何れか1項に記載の信号解析装置。
The frequency spectrum calculation unit performs Fourier transform on information about each signal generated by the first signal acquisition unit and the second signal acquisition unit, so that the first frequency spectrum and the second frequency are obtained. Obtain each spectrum,
9. The correlation calculation unit according to claim 1, wherein the correlation calculation unit calculates respective correlations after performing inverse Fourier transform on the first enhancement spectrum and the second enhancement spectrum. The signal analysis apparatus described.
信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、
前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号である目的方向信号を強調した強調スペクトルとして、第1の強調スペクトルおよび第2の強調スペクトルを別々の方法にて求める強調スペクトル算出部と、
前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、
を備えることを特徴とする信号解析装置。
From the information about the signals generated by the first signal acquisition means and the second signal acquisition means, which are arranged at different distances from the signal generation source and acquire the signal emitted from the signal generation source, the frequency and the intensity A frequency spectrum calculating unit for obtaining a first frequency spectrum and a second frequency spectrum as frequency spectra representing the relationship;
The first enhanced spectrum and the second enhanced spectrum are separated from the first frequency spectrum and the second frequency spectrum as enhanced spectra in which a target direction signal that is a signal emitted from the signal generation source is enhanced. An enhanced spectrum calculation unit obtained in
A correlation calculating unit that calculates correlation between the first enhanced spectrum and the second enhanced spectrum;
A signal analyzing apparatus comprising:
信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段からなる信号取得手段と、
前記信号発生源から発した信号である目的方向信号と当該信号発生源から発した信号以外の信号である目的外方向信号とを識別する識別手段と、
を備え、
前記識別手段は、
前記第1の信号取得手段および前記第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する信号情報取得部と、
前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める周波数スペクトル算出部と、
前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する第1の抽出部と、
前記第1の抽出部とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する第2の抽出部と、
前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する第3の抽出部と、
前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める強調スペクトル算出部と、
前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する相関性算出部と、
を備えることを特徴とする信号解析システム。
A signal acquisition unit comprising a first signal acquisition unit and a second signal acquisition unit, which are arranged at different distances from the signal generation source and acquire a signal emitted from the signal generation source;
Identifying means for identifying a target direction signal that is a signal emitted from the signal generation source and a non-target direction signal that is a signal other than a signal emitted from the signal generation source;
With
The identification means includes
A signal information acquisition unit for acquiring information related to the signals generated by the first signal acquisition unit and the second signal acquisition unit;
From the information about each signal generated by the first signal acquisition unit and the second signal acquisition unit, the first frequency spectrum and the second frequency spectrum are represented as frequency spectra representing the relationship between frequency and intensity. A frequency spectrum calculation unit to be obtained;
Extracting from the first frequency spectrum and the second frequency spectrum a first extracted spectrum that is processed such that a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source. A first extraction unit that
By a process different from that of the first extraction unit, a signal emitted from the signal generation source from a signal emitted from a direction different from the signal generation source from the first frequency spectrum and the second frequency spectrum. A second extraction unit that extracts a second extracted spectrum that has been processed to increase;
A third extraction unit for extracting, from the first frequency spectrum and the second frequency spectrum, a suppression spectrum in which a signal emitted from the signal generation source is suppressed;
The suppression spectrum is subtracted from the first extracted spectrum, and a first enhancement spectrum is obtained by performing a flooring process, and the second enhancement spectrum is subtracted from the second extraction spectrum. An enhanced spectrum calculation unit for obtaining
A correlation calculating unit that calculates correlation between the first enhanced spectrum and the second enhanced spectrum;
A signal analysis system comprising:
コンピュータに、
信号発生源から異なる距離にて配され、当該信号発生源から発した信号を取得する、第1の信号取得手段および第2の信号取得手段により生成された信号に関する情報をそれぞれ取得する機能と、
前記第1の信号取得手段および前記第2の信号取得手段により生成されたそれぞれの信号に関する情報から、周波数と強度との関係を表わす周波数スペクトルとして、第1の周波数スペクトルおよび第2の周波数スペクトルをそれぞれ求める機能と、
前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第1の抽出スペクトルを抽出する機能と、
前記第1の抽出スペクトルを抽出する機能とは異なる処理により、前記第1の周波数スペクトルと前記第2の周波数スペクトルとから、前記信号発生源から発した信号が当該信号発生源とは異なる方向から発した信号より大きくなる処理をした第2の抽出スペクトルを抽出する機能と、
前記第1の周波数スペクトルおよび前記第2の周波数スペクトルから、前記信号発生源から発した信号を抑圧した抑圧スペクトルを抽出する機能と、
前記第1の抽出スペクトルから前記抑圧スペクトルを減算し、フロアリング処理を行なうことで第1の強調スペクトルを求めるとともに、前記第2の抽出スペクトルから当該抑圧スペクトルを減算することで第2の強調スペクトルを求める機能と、
前記第1の強調スペクトルと前記第2の強調スペクトルに対する相関性を算出する機能と、
を実現させるプログラム。
On the computer,
A function of acquiring information about signals generated by the first signal acquisition unit and the second signal acquisition unit, which are arranged at different distances from the signal generation source and acquire a signal emitted from the signal generation source;
From the information about each signal generated by the first signal acquisition unit and the second signal acquisition unit, the first frequency spectrum and the second frequency spectrum are represented as frequency spectra representing the relationship between frequency and intensity. Each of the functions
Extracting from the first frequency spectrum and the second frequency spectrum a first extracted spectrum that is processed such that a signal emitted from the signal generation source is larger than a signal emitted from a direction different from the signal generation source. Function to
Due to processing different from the function of extracting the first extraction spectrum , the signal generated from the signal generation source is different from the direction of the signal generation source from the first frequency spectrum and the second frequency spectrum. A function of extracting a second extracted spectrum that has been processed to be larger than the emitted signal;
A function of extracting, from the first frequency spectrum and the second frequency spectrum, a suppression spectrum in which a signal emitted from the signal generation source is suppressed;
The suppression spectrum is subtracted from the first extracted spectrum, and a first enhancement spectrum is obtained by performing a flooring process, and the second enhancement spectrum is subtracted from the second extraction spectrum. The function to ask for
A function of calculating a correlation between the first enhanced spectrum and the second enhanced spectrum;
A program that realizes
JP2013273606A 2013-12-27 2013-12-27 Signal analysis apparatus, signal analysis system, and program Expired - Fee Related JP6369022B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013273606A JP6369022B2 (en) 2013-12-27 2013-12-27 Signal analysis apparatus, signal analysis system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013273606A JP6369022B2 (en) 2013-12-27 2013-12-27 Signal analysis apparatus, signal analysis system, and program

Publications (2)

Publication Number Publication Date
JP2015127768A JP2015127768A (en) 2015-07-09
JP6369022B2 true JP6369022B2 (en) 2018-08-08

Family

ID=53837788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013273606A Expired - Fee Related JP6369022B2 (en) 2013-12-27 2013-12-27 Signal analysis apparatus, signal analysis system, and program

Country Status (1)

Country Link
JP (1) JP6369022B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271191A (en) * 2002-03-15 2003-09-25 Toshiba Corp Device and method for suppressing noise for voice recognition, device and method for recognizing voice, and program
JP4873913B2 (en) * 2004-12-17 2012-02-08 学校法人早稲田大学 Sound source separation system, sound source separation method, and acoustic signal acquisition apparatus
JP5156260B2 (en) * 2007-04-27 2013-03-06 ニュアンス コミュニケーションズ,インコーポレイテッド Method for removing target noise and extracting target sound, preprocessing unit, speech recognition system and program
JP5339501B2 (en) * 2008-07-23 2013-11-13 インターナショナル・ビジネス・マシーンズ・コーポレーション Voice collection method, system and program
JP4986248B2 (en) * 2009-12-11 2012-07-25 沖電気工業株式会社 Sound source separation apparatus, method and program
JP5817366B2 (en) * 2011-09-12 2015-11-18 沖電気工業株式会社 Audio signal processing apparatus, method and program

Also Published As

Publication number Publication date
JP2015127768A (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP6031761B2 (en) Speech analysis apparatus and speech analysis system
JP5772447B2 (en) Speech analyzer
US8892424B2 (en) Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person
JP6003510B2 (en) Speech analysis apparatus, speech analysis system and program
JP6003472B2 (en) Speech analysis apparatus, speech analysis system and program
JP5867066B2 (en) Speech analyzer
JP2013135325A (en) Voice analysis device
US8983843B2 (en) Motion analyzer having voice acquisition unit, voice acquisition apparatus, motion analysis system having voice acquisition unit, and motion analysis method with voice acquisition
JP6476938B2 (en) Speech analysis apparatus, speech analysis system and program
JP6007487B2 (en) Information processing apparatus, information processing system, and program
JP6160042B2 (en) Positioning system
JP5862318B2 (en) Sound analysis apparatus, sound analysis system and program
JP6191747B2 (en) Speech analysis apparatus and speech analysis system
JP6031767B2 (en) Speech analysis apparatus, speech analysis system and program
JP6369022B2 (en) Signal analysis apparatus, signal analysis system, and program
JP6515591B2 (en) Speech analysis device, speech analysis system and program
US9014395B2 (en) Audio analysis apparatus and audio analysis system
JP5929810B2 (en) Voice analysis system, voice terminal apparatus and program
JP2013140534A (en) Voice analysis device, voice analysis system, and program
JP6051996B2 (en) Speech analysis apparatus, speech analysis system and program
JP2013164468A (en) Voice analysis device, voice analysis system, and program
JP6056544B2 (en) Speech analysis device, signal analysis device, speech analysis system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180612

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180625

R150 Certificate of patent or registration of utility model

Ref document number: 6369022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350