JP2010206449A - Speech direction estimation device and method, and program - Google Patents

Speech direction estimation device and method, and program Download PDF

Info

Publication number
JP2010206449A
JP2010206449A JP2009048971A JP2009048971A JP2010206449A JP 2010206449 A JP2010206449 A JP 2010206449A JP 2009048971 A JP2009048971 A JP 2009048971A JP 2009048971 A JP2009048971 A JP 2009048971A JP 2010206449 A JP2010206449 A JP 2010206449A
Authority
JP
Japan
Prior art keywords
matrix
frequency
basis
speaker
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009048971A
Other languages
Japanese (ja)
Other versions
JP5235725B2 (en
Inventor
Kenta Niwa
健太 丹羽
Sumitaka Sakauchi
澄宇 阪内
Kenichi Furuya
賢一 古家
Yoichi Haneda
陽一 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009048971A priority Critical patent/JP5235725B2/en
Publication of JP2010206449A publication Critical patent/JP2010206449A/en
Application granted granted Critical
Publication of JP5235725B2 publication Critical patent/JP5235725B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speech direction estimation device which does not request to arrange many microphones so as to enclose a speaker, and can appropriately estimate the speech direction even under environment in which a reverberation time is long. <P>SOLUTION: A correlation matrix calculation unit sequentially generates and outputs an M×M correlation matrix representing correlation between digital sound signals as expected values by frames, and a base matrix generation unit inputs the digital sound signals and information on a speaker position, and generates a base matrix having a base number D. A correlation matrix decomposition unit inputs correlation matrixes and base matrixes by the frames and decomposes the correlation matrixes into component columns projected on the base matrixes, and a frequency averaging processing unit inputs the component columns and outputs a frequency averaged component column averaged with frequencies by the frames. A front-lateral direction decision unit inputs the frequency averaged component column, and estimates whether the speaker has spoken in the front direction by the frames. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、マイクロホンに入力された音声信号から発話者の発話向きを推定する技術に関する。   The present invention relates to a technique for estimating the utterance direction of a speaker from an audio signal input to a microphone.

電話や音声会議端末等の音声情報をやりとりするシステムを一般に音声通信システムと呼ぶ。TV会議システムでは音声情報に映像を付加して提示するため場の状況が伝わりやすいが、音声通信システムでは相手側の状況を把握するのは難しい。相手側の状況に関する情報のひとつに発話向き情報があり、相手側からこの情報を受け取ることで発話者がどの方向に向かって発話しているかを把握でき、コミュニケーションの円滑化を図ることができる。   A system for exchanging voice information such as a telephone or a voice conference terminal is generally called a voice communication system. In the video conference system, the video is added to the audio information and presented, so that the situation of the place is easily transmitted, but in the audio communication system, it is difficult to grasp the situation of the other party. One of the information on the other party's situation is utterance direction information. By receiving this information from the other party, it is possible to grasp the direction in which the speaker is speaking and to facilitate communication.

このような発話向き情報を推定する従来技術が非特許文献1、2等で開示されており、構成例を図15に示す。この構成例における発話向き推定装置10は、以下のように発話向き情報を推定する。
(i) 発話者1からの発話音声をM本(Mは2以上の整数)のマイクロホン11−1、・・・、11−Mを用いて収音する。収音されたアナログ信号をAD変換部12にて、ディジタル信号vx(t)=[x1(t),・・・, xM(t)]Tへ変換する。ここで、tは離散時間のインデックスを表す。
Conventional techniques for estimating such speech direction information are disclosed in Non-Patent Documents 1 and 2 and the like, and a configuration example is shown in FIG. The speech direction estimation apparatus 10 in this configuration example estimates speech direction information as follows.
(i) The voice from the speaker 1 is picked up using M (M is an integer of 2 or more) microphones 11-1,. The collected analog signal is converted into a digital signal vx (t) = [x 1 (t),..., X M (t)] T by the AD converter 12. Here, t represents an index of discrete time.

(ii) 周波数領域変換部13では、複数サンプルからなる上記ディジタル信号の組(フレーム)を入力とし、高速フーリエ変換等により周波数領域の信号VX(ω,n)=[X1(ω,n),・・・, XM(ω,n)]Tへ変換する。ここで、ωは周波数のインデックスを表し、周波数のインデックスの総数をΩとする。また、nはフレームのインデックスを表す。
(iii) 固定ビームフォーマ設計部14では、各発話者位置・発話向き毎に固定ビームフォーマVG(ω,r,θ)=[G1(ω,r,θ),・・・,GM(ω,r,θ)]Tを設計する。G(ω,r,θ)は発話者位置r、発話向きθの音源を強調・抑制するためにi番目のマイクロホンの周波数成分xi(ω,n)に掛ける係数である。
(ii) The frequency domain transform unit 13 receives a set (frame) of the digital signals composed of a plurality of samples as an input, and performs frequency domain signal VX (ω, n) = [X 1 (ω, n) by fast Fourier transform or the like. , ···, X M (ω, n)] to convert to T. Here, ω represents a frequency index, and the total number of frequency indexes is Ω. N represents the index of the frame.
(iii) The fixed beamformer design unit 14 sets the fixed beamformer VG (ω, r, θ) = [G 1 (ω, r, θ),..., G M (for each speaker position and direction. ω, r, θ)] T is designed. G i (ω, r, θ) is a coefficient to be multiplied by the frequency component x i (ω, n) of the i-th microphone in order to emphasize / suppress the sound source at the speaker position r and the speech direction θ.

設計に際しては、あらかじめ設定された発話者位置・発話向き毎に音源とマイクロホン間の音響伝搬特性VH(ω,r,θ)=[H1(ω,r,θ),・・・,HM(ω,r,θ)]Tをシミュレー
ション値や実測値を用いて求めておく。ここでHi(ω,r,θ)は発話者位置r、発話向き
θの音源と、i番目のマイクロホンとの間の音響伝搬特性を表す。
In designing, acoustic propagation characteristics between a sound source and a microphone VH (ω, r, θ) = [H 1 (ω, r, θ),..., H M for each predetermined speaker position and direction. (ω, r, θ)] T is obtained using simulation values or actual measurement values. Here, H i (ω, r, θ) represents an acoustic propagation characteristic between the sound source at the speaker position r and the speech direction θ and the i-th microphone.

固定ビームフォーマVG(ω,r,θ)は、音響伝搬特性との関係を表す式(1)、(2)を満たす値として設計される。
VH(ω,rTT)H・VG(ω,rTT)=1 (1)
VH(ω,rUU)H・VG(ω,rTT)=0 (2)
式(1)、(2)は、発話者位置rT、発話向きθTの出力パワーを強調し、それ以外の発話者位置rU、発話向きθUの出力パワーを抑えるように固定ビームフォーマVG(ω,r,θ)を設計することを示している。
The fixed beamformer VG (ω, r, θ) is designed as a value that satisfies the expressions (1) and (2) representing the relationship with the acoustic propagation characteristics.
VH (ω, r T , θ T ) H · VG (ω, r T , θ T ) = 1 (1)
VH (ω, r U, θ U) H · VG (ω, r T, θ T) = 0 (2)
Expressions (1) and (2) emphasize the output power of the speaker position r T and the speech direction θ T and suppress the output power of the other speaker positions r U and the speech direction θ U. It shows that VG (ω, r, θ) is designed.

(iv) 積和計算部15では、周波数領域の信号VX(ω,n)=[X1(ω,n),・・・, XM(ω,n)]Tと固定ビームフォーマVG(ω,r,θ)=[G1(ω,r,θ),・・・,GM(ω,r,θ)]Tを入力とし、各周波数ω、発話者位置r、発話向きθ毎に各マイクロホンに対応する周波数成分Xi(ω,n)と固定ビームフォーマの係数Gi(ω,r,θ)とを掛け、得られたM個の成分を足し合わせることで出力Y(ω,n,r,θ)を計算する。この計算は、Y(ω,n,r,θ)=VG(ω,r,θ)H・VX(ω,n)を計算することと同義である。 (iv) In the product-sum calculation unit 15, the frequency domain signal VX (ω, n) = [X 1 (ω, n),..., X M (ω, n)] T and the fixed beamformer VG (ω , r, θ) = [G 1 (ω, r, θ),..., G M (ω, r, θ)] T as an input, for each frequency ω, speaker position r, and speech direction θ. Multiplying the frequency component X i (ω, n) corresponding to each microphone by the coefficient G i (ω, r, θ) of the fixed beamformer, and adding the obtained M components, the output Y (ω, n, r, θ) is calculated. This calculation is synonymous with calculating Y (ω, n, r, θ) = VG (ω, r, θ) H · VX (ω, n).

(v) パワー計算部16では、積和計算部15からの出力Y(ω,n,r,θ)からパワー|Y(ω,n,r,θ)|2を計算して出力する。
(vi) 周波数平均化処理部17では、パワー計算部16から出力されたパワー|Y(ω,n,r,θ)|2を周波数で平均化処理し、AY(n,r,θ)を得る。この計算は、Fを平均化処理で用いる周波数のインデックス、|F|を周波数のインデックスの総数と定義すると、
(v) The power calculator 16 calculates and outputs power | Y (ω, n, r, θ) | 2 from the output Y (ω, n, r, θ) from the product-sum calculator 15.
(vi) The frequency averaging processing unit 17 averages the power | Y (ω, n, r, θ) | 2 output from the power calculation unit 16 by frequency, and calculates AY (n, r, θ). obtain. In this calculation, if F 0 is defined as the frequency index used in the averaging process, and | F 0 | is defined as the total number of frequency indexes,

Figure 2010206449
Figure 2010206449

を計算することと同義である。なお、FはΩ≧|F|を満たす。
(vii) 音源向き選択部18では、各フレーム毎に周波数で平均化処理されたパワーAY(n,r,θ)が最大となる発話者位置r、発話向きθを探査し、パワーAY(n,r,θ)が最大となる発話向きθを、推定された発話向きθout(n)として求める。
Is equivalent to calculating Note that F 0 satisfies Ω ≧ | F 0 |.
(vii) The sound source direction selection unit 18 searches for the speaker position r and the speech direction θ where the power AY (n, r, θ) averaged by frequency for each frame is maximum, and the power AY (n , r, θ) is determined as the estimated speech direction θ out (n).

中島弘史、「音源の方向を推定可能な拡張ビームフォーミング」、日本音響学会講演論文集、2005年9月、p.619-620Hiroshi Nakajima, “Expanded Beamforming for Estimating Sound Source Direction”, Proceedings of the Acoustical Society of Japan, September 2005, p.619-620 中島弘史、外8名、「拡張ビームフォーミングを用いた音源指向特性推定」、日本音響学会講演論文集、2005年9月、p.621-622Hiroshi Nakajima, 8 others, "Sound source directivity estimation using extended beamforming", Proceedings of the Acoustical Society of Japan, September 2005, p.621-622

従来技術の課題として次の2点が挙げられる。
(i) 任意の位置での発話に対応し、高精度な発話向きの推定を行うには、多数のマイクロホンを必要とし、かつマイクロホンの設置位置にも工夫が必要
従来技術においては、各発話者位置・発話向き毎に設計された固定ビームフォーマの出力のパワー|Y(ω,n,r,θ)|2に差があるほど、高精度に発話向きを推定することができる。しかし、発話者の口から放射される音波のように口の前方に強い指向性を持つ音源を想定すると、図16に示すように多数のマイクロホンで発話者を囲い込むように収音しないと、発話者位置・発話向きによっては固定ビームフォーマの出力のパワーに差が出ず、発話向きの推定誤差が増大する(例えば、非特許文献2の実験ではマイクロホンを64本使用)。そのため、誤差を小さくするには多数のマイクロホンが必要となり装置が大型化し、電話や音声会議端末のような可搬性がある装置に取り付けて利用することが難しい。
The following two points can be cited as problems of the prior art.
(i) To deal with utterances at any position and to estimate the direction of utterance with high accuracy, a large number of microphones are required and the position of the microphones must be devised. As the output power | Y (ω, n, r, θ) | 2 of the fixed beamformer designed for each position and speech direction is different, the speech direction can be estimated with higher accuracy. However, assuming a sound source with a strong directivity in front of the mouth, such as a sound wave radiated from the mouth of the speaker, as shown in FIG. 16, it is necessary to collect sound so as to surround the speaker with a large number of microphones. Depending on the speaker position / speech direction, there is no difference in the output power of the fixed beamformer, and the speech direction estimation error increases (for example, in the experiment of Non-Patent Document 2, 64 microphones are used). Therefore, in order to reduce the error, a large number of microphones are required, the apparatus becomes large, and it is difficult to use it by attaching it to a portable apparatus such as a telephone or an audio conference terminal.

(ii) 残響時間(直接波到来後、直接波の収音パワーから60dB減衰するまでの時間)
が250msec以上の残響環境下では高い発話方向推定性能が得られない
残響時間が250msec以上の残響環境下においては、強い反射波が多く混合するため音響伝搬特性VH(ω,r,θ)を精度よく設計することが難しい。そのため、固定ビームフォーマの出力に曖昧性が生じ、推定精度が劣化する。例えば、低残響加工されていない実環境の部屋においては、一般に残響時間が250〜500msec程度となるため精度の良い推定が困難である。
(ii) Reverberation time (time from the arrival of the direct wave until 60 dB attenuation from the collected power of the direct wave)
High speech direction estimation performance cannot be obtained in a reverberation environment with a reverberation time of 250 msec or more. In a reverberation environment with a reverberation time of 250 msec or more, the sound propagation characteristics VH (ω, r, θ) are accurate because many strong reflected waves are mixed. It is difficult to design well. Therefore, ambiguity occurs in the output of the fixed beamformer, and the estimation accuracy deteriorates. For example, in an actual environment room that is not subjected to low reverberation processing, reverberation time is generally about 250 to 500 msec, so that accurate estimation is difficult.

本発明の目的は、多数のマイクロホンを発話者を囲い込むように配置する必要が無く、かつ残響時間が250msec以上の残響環境下においても適切に発話向きを推定することが可能な、発話向き推定装置、方法及びプログラムを提供することにある。   An object of the present invention is to estimate the speech direction, which does not require a large number of microphones to be placed so as to surround the speaker, and can appropriately estimate the speech direction even in a reverberant environment with a reverberation time of 250 msec or more. To provide an apparatus, a method, and a program.

本発明の発話向き推定装置は、AD変換部と、周波数領域変換部と、相関行列計算部と、基底行列生成部と、相関行列分解部と、周波数平均化処理部と、正面・横向き判定部とを具備する。AD変換部は、M本(Mは2以上の整数)のマイクロホンで収音したアナログ音声信号を、それぞれディジタル音声信号に変換する。周波数領域変換部は、ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する。相関行列計算部は、各周波数毎に、周波数領域に変換されたそれぞれのディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成して出力する。基底行列生成部は、ディジタル音声信号と話者位置の情報を入力として、D個(Dは2以上の整数)の基底から成る基底行列を生成する。相関行列分解部は、フレーム毎に相関行列と基底行列を入力として、相関行列を基底行列に射影した成分列に分解する。周波数平均化処理部は、成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する。正面・横向き判定部は、周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する。   The speech direction estimation apparatus of the present invention includes an AD conversion unit, a frequency domain conversion unit, a correlation matrix calculation unit, a base matrix generation unit, a correlation matrix decomposition unit, a frequency averaging processing unit, and a front / lateral direction determination unit. It comprises. The AD conversion unit converts analog audio signals collected by M microphones (M is an integer of 2 or more) into digital audio signals. The frequency domain transform unit transforms the digital audio signal from the time domain to the frequency domain in units of frames composed of a plurality of samples. The correlation matrix calculation unit sequentially generates and outputs an M × M correlation matrix representing the correlation between the respective digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames. The base matrix generation unit receives a digital speech signal and speaker position information as input, and generates a base matrix composed of D bases (D is an integer of 2 or more). The correlation matrix decomposition unit inputs a correlation matrix and a base matrix for each frame, and decomposes the correlation matrix into component columns projected onto the base matrix. The frequency averaging processing unit receives the component sequence and outputs a frequency averaged component sequence averaged by frequency for each frame. The front / side orientation determination unit estimates whether or not the direction of the speaker's utterance is the front direction for each frame, using the frequency averaged component sequence as an input.

本発明の発話向き推定装置によれば、多数のマイクロホンを発話者を囲い込むように配置する必要が無く、かつ残響時間が250msec以上の残響環境下においても適切に発話向きを推定することが可能となる。   According to the speech direction estimating apparatus of the present invention, it is not necessary to arrange a large number of microphones so as to surround a speaker, and it is possible to appropriately estimate the speech direction even in a reverberant environment where the reverberation time is 250 msec or more. It becomes.

第1実施形態の発話向き推定装置100の機能構成例を示す図。The figure which shows the function structural example of the speech direction estimation apparatus 100 of 1st Embodiment. 第1実施形態の発話向き推定装置100の処理フロー例を示す図。The figure which shows the example of a processing flow of the utterance direction estimation apparatus 100 of 1st Embodiment. マイクロホンと発話者・発話向きとの位置関係を示すイメージ図。The image figure which shows the positional relationship of a microphone, a speaker, and a speech direction. 左右向きを判定する方法についてのイメージ図。The image figure about the method of determining left-right orientation. 音声信号の伝搬特性を時間領域で示す図。The figure which shows the propagation characteristic of an audio | voice signal in a time domain. 発話向きと基底ベクトルと固有値・固有ベクトルとの相関関係を示すイメージ図。The image figure which shows the correlation with an utterance direction, a base vector, and an eigenvalue / eigenvector. 発話向きと固有値との関係を示すイメージ図。The image figure which shows the relationship between an utterance direction and an eigenvalue. 第2実施形態の発話向き推定装置200の機能構成例を示す図。The figure which shows the function structural example of the utterance direction estimation apparatus 200 of 2nd Embodiment. 第2実施形態の発話向き推定装置200の処理フロー例を示す図。The figure which shows the example of a processing flow of the speech direction estimation apparatus 200 of 2nd Embodiment. 正面向き・横向きを判定する方法についてのイメージ図。The image figure about the method of judging front direction and sideways. 第3実施形態の発話向き推定装置300の機能構成例を示す図。The figure which shows the function structural example of the speech direction estimation apparatus 300 of 3rd Embodiment. 効果の検証環境及び条件を示す図。The figure which shows the verification environment and conditions of an effect. 発話向きと固有値との関係についての検証結果を示す図。The figure which shows the verification result about the relationship between an utterance direction and an eigenvalue. 左右向き推定の検証結果を示す図。The figure which shows the verification result of left-right direction estimation. 音声会議端末に本発明を組み込んだサービス構成例を示す図。The figure which shows the service structural example which incorporated this invention in the audio conference terminal. 従来技術による発話向き推定装置の機能構成例を示す図。The figure which shows the function structural example of the speech direction estimation apparatus by a prior art. 従来技術によるマイクロホンと発話者との関係を示すイメージ図。The image figure which shows the relationship between the microphone and speaker by a prior art.

〔第1実施形態〕
図1に本発明の発話向き推定装置100の機能構成例を、図2にその処理フロー例を示す。発話向き推定装置100は、発話向きがマイクロホンアレイに対し、正面向き、左向きであるか右向きであるかを推定するものである。
[First Embodiment]
FIG. 1 shows a functional configuration example of the speech direction estimating apparatus 100 of the present invention, and FIG. 2 shows a processing flow example thereof. The utterance direction estimation apparatus 100 estimates whether the utterance direction is the front direction, the left direction, or the right direction with respect to the microphone array.

発話向き推定装置100は、M本(Mは2以上の整数)のマイクロホン101−1〜101−Mからなるマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102と、固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106と、第2周波数平均化処理部202と、正面・横向き判定部203とを備える。   The utterance direction estimation apparatus 100 includes a microphone array 101 including M microphones (M is an integer of 2 or more) 101-1 to 101-M, an AD conversion unit 12, a frequency domain conversion unit 13, and a correlation matrix calculation unit. 102, an eigenvalue decomposition unit 201, a first eigenvector power calculation unit 104, a first frequency averaging processing unit 105, a left / right orientation determination unit 106, a second frequency averaging processing unit 202, and a front / side orientation determination unit 203.

従来技術においては、図16に示すように発話者を囲い込むように多数のマイクロホンを配置する必要があったが、本発明においては、M本のマイクロホン101−1〜101−Mを可能な程度に密集して配置すればよい。このようなマイクロホンアレイ101を構成するマイクロホンの本数は多いことに越したことはないが、以下に説明する本発明の構成によれば2本以上あれば発話向きの推定が可能である。また、配置は平面的でも立体的でも構わない。このように少ない本数のマイクロホンを密集して配置する形態をとることで、電話や音声会議端末のような可搬性がある装置に取り付けて、その周囲の発話者による発話向きを推定することが可能となる。発話者はこのマイクロホンアレイ101の周囲で発話する。図3は7本のマイクロホンからなるマイクロホンアレイ101の周りで話している発話者を上から見たイメージを示したものであり、矢印方向が発話向きである。なお、図3(a)は発話者が各位置で正面向きに発話している様子を、図3(b)は横向きに発話している様子を表している。   In the prior art, as shown in FIG. 16, it was necessary to arrange a large number of microphones so as to surround the speaker. However, in the present invention, M microphones 101-1 to 101-M can be provided. It is sufficient to arrange them closely. Although the number of microphones constituting such a microphone array 101 is not too large, according to the configuration of the present invention described below, it is possible to estimate the utterance direction with two or more microphones. The arrangement may be two-dimensional or three-dimensional. By adopting a configuration in which a small number of microphones are arranged densely in this way, it can be attached to a portable device such as a telephone or an audio conference terminal, and the direction of speech by surrounding speakers can be estimated It becomes. The speaker speaks around the microphone array 101. FIG. 3 shows an image of a speaker talking around a microphone array 101 composed of seven microphones as viewed from above, and the direction of the arrow is the direction of speech. FIG. 3A shows a state where the speaker speaks in front of each position, and FIG. 3B shows a state where the speaker speaks sideways.

AD変換部12は、M本のマイクロホン101−1〜101−Mで収音した発話者1が発話したアナログ音声信号を、それぞれディジタル音声信号x1(t) 、・・・、xM(t)に
変換する(S1)。ここで、tは離散時間のインデックスを表す。
The AD conversion unit 12 converts the analog voice signals uttered by the speaker 1 collected by the M microphones 101-1 to 101 -M into digital voice signals x 1 (t),..., X M (t (S1). Here, t represents an index of discrete time.

周波数領域変換部13は、複数の離散時間サンプルからなる上記ディジタル音声信号の組(フレーム)を入力とし、高速フーリエ変換等により周波数領域のディジタル音声信号X1(ω,n)、・・・、XM(ω,n)に変換して出力する(S2)。ここで、nはフレームのインデックスを表し、ωは周波数のインデックスを表す。なお、周波数のインデックスの総数はΩとする。 The frequency domain transform unit 13 receives as input a set (frame) of the above digital speech signals composed of a plurality of discrete time samples, and performs frequency domain digital speech signals X 1 (ω, n),. It is converted into X M (ω, n) and output (S2). Here, n represents a frame index, and ω represents a frequency index. The total number of frequency indexes is Ω.

相関行列計算部102は、周波数領域のディジタル音声信号X1(ω,n) 、・・・、XM(ω,n)を入力とし、各信号間の相関を表すM×Mの相関行列R(ω,k)を、各周波数ω毎に式(3)により順次生成し出力する(S3)。
R(ω,k)=E[VX(ω,n)・VXH(ω,n)] (3)
The correlation matrix calculation unit 102 receives the digital audio signals X 1 (ω, n),..., X M (ω, n) in the frequency domain as inputs, and an M × M correlation matrix R representing the correlation between the signals. (ω, k) is sequentially generated and output for each frequency ω by equation (3) (S3).
R (ω, k) = E [VX (ω, n) · VX H (ω, n)] (3)

ここで、VX(ω,n)=[X1(ω,n)、・・・、XM(ω,n)]Tなお、Hは共役転置を表し、Eは、VX(ω,n)・VX(ω,n)Hを各フレームについて計算した上で、平均化処理等によりLフレーム毎の期待値を演算をする演算子である。つまり、相関行列はLフレームに1回の割合で順次出力され、kはこの相関行列の出力のインデックスを表す。また、LはM以上の整数とすることが望ましい。 Here, VX (ω, n) = [X 1 (ω, n),..., X M (ω, n)] T where H represents a conjugate transpose and E represents VX (ω, n) An operator that calculates an expected value for each L frame by averaging processing after calculating VX (ω, n) H for each frame. That is, the correlation matrix is sequentially output at a rate of once per L frame, and k represents an output index of the correlation matrix. L is preferably an integer greater than or equal to M.

固有値分解部201は、相関行列R(ω,k)を入力とし、まず、式(4)を満たすようにM個の固有値λ1(ω,k)、・・・、λM(ω,k)それぞれの二乗を対角要素とする対角行列である固有値行列Λ(ω,k)と、M個の固有ベクトルvv1(ω,k)、・・・、vvM(ω,k)を要素とする固有ベクトル行列V(ω,k)とに固有値分解法によって分解する。
R(ω,k)=V(ω,k)・Λ(ω,k)・VH(ω,k) (4)
ここで、Λ(ω,k)=diag[λ1 2(ω,k)、・・・、λM 2(ω,k)]
λ1(ω,k)≧λ2(ω,k)≧・・・≧λM(ω,k)
V(ω,k)=[vv1(ω,k)、・・・、vvM(ω,k)]T
vvi(ω,k)=[vi,1(ω,k)、・・・、vi,M(ω,k)]
なお、diag[・]は[・]内の成分を対角行列の要素とする演算子である。
そして、最大の固有値である第1固有値λ1(ω,k)に対応する第1固有ベクトルvv1(ω,
k)を出力する(S4)。
The eigenvalue decomposition unit 201 receives the correlation matrix R (ω, k) as an input, and first, M eigenvalues λ 1 (ω, k),..., Λ M (ω, k) so as to satisfy Expression (4). ) Eigenvalue matrix Λ (ω, k), which is a diagonal matrix with each square as a diagonal element, and M eigenvectors vv 1 (ω, k),..., Vv M (ω, k) Is decomposed into eigenvector matrix V (ω, k) by the eigenvalue decomposition method.
R (ω, k) = V (ω, k) · Λ (ω, k) · V H (ω, k) (4)
Where Λ (ω, k) = diag [λ 1 2 (ω, k),..., Λ M 2 (ω, k)]
λ 1 (ω, k) ≧ λ 2 (ω, k) ≧ ・ ・ ・ ≧ λ M (ω, k)
V (ω, k) = [vv 1 (ω, k),..., Vv M (ω, k)] T
vv i (ω, k) = [v i, 1 (ω, k),..., v i, M (ω, k)]
Note that diag [•] is an operator having the components in [•] as elements of a diagonal matrix.
Then, the first eigenvector vv 1 (ω, k) corresponding to the first eigenvalue λ 1 (ω, k) which is the maximum eigenvalue.
k) is output (S4).

第1固有ベクトルパワー計算部104は、第1固有ベクトルvv1(ω,k)を入力とし、第1固有ベクトルvv1(ω,k)を構成するv1,1(ω,k)、・・・、v1,M(ω,k)のM個の要素について、それぞれ式(5)によりパワーを計算してM個のパワー要素pv1,1(ω,k)、・・・
、pv1,M(ω,k)を出力する(S5)。
pv1,i(ω,k)=|v1,i(ω,k)| (5)
第1周波数平均化処理部105は、各周波数ω毎に生成されたM個のパワー要素pv1,1(ω,k)、・・・、pv1,M(ω,k)について、それぞれ式(6)により平均値を計算してM個の平均化パワー要素apv1,1(k)、・・・、apv1,M(k)を出力する(S6)。
The first eigenvector power calculation unit 104 receives the first eigenvector vv 1 (ω, k) as an input, and v 1,1 (ω, k),... Constituting the first eigenvector vv 1 (ω, k). For M elements of v 1, M (ω, k), the power is calculated by the equation (5), respectively, and M power elements pv 1,1 (ω, k),...
, Pv 1, M (ω, k) is output (S5).
pv 1, i (ω, k) = | v 1, i (ω, k) | (5)
The first frequency averaging processing unit 105 formulas M power elements pv 1,1 (ω, k),..., Pv 1, M (ω, k) generated for each frequency ω, respectively. The average value is calculated according to (6), and M averaged power elements apv 1,1 (k),..., Apv 1, M (k) are output (S6).

Figure 2010206449
Figure 2010206449

なお、F1は平均化に用いる周波数のインデックス、|F1|は周波数のインデックスの総
数であり、F1はΩ≧|F1|を満たすように適宜設定する。
左右向き判定部106は、M個の平均化パワー要素apv1,1(k)、・・・、apv1,M(k)とを入力とし、左向きに発話したか右向きに発話したかを判定して結果を出力する(S7)。
F 1 is an index of frequencies used for averaging, | F 1 | is a total number of frequency indexes, and F 1 is appropriately set so as to satisfy Ω ≧ | F 1 |.
The left / right direction determination unit 106 receives M averaged power elements apv 1,1 (k),..., Apv 1, M (k) as input, and determines whether the left direction is spoken or the right direction is spoken. The result is output (S7).

左右向きの判定は、マイクロホンアレイ101を構成するM本のマイクロホンのうち、ある2本のマイクロホン101−α、101−βに対応する2個の平均化パワー要素apv1,α(k)、apv1,β(k)の比をとり、それを所定のしきい値thr1と比較することにより行う。左右向きの判定イメージを図4に例示する。この例では、図4(a)に示すマイクロホンαとマイクロホンβとの中間点に向いて発話された場合をapv1,α(k)/apv1,β(k)=thr1とし、この向きを基準とした左右方向の発話向きをapv1,α(k)/apv1,β(k)とthr1との大小関係により判定する。具体的には、左向きになればなるほどapv1,β(k)がapv1,α(k)に比べて減衰する割合が大きくなるため、apv1,α(k)/apv1,β(k)>thr1の時には左向きであると判定することができ(図4(b))、右向きになればなるほどapv1,α(k)がapv1,β(k)に比べて減衰する割合が大きくなるため、apv1,α(k)/apv1,β(k)<thr1の時には右向きであると判定することができる(図4(c))。なお、2本のマイクロホンは、平均化パワー要素apv1,α(k)、apv1,β(k)の値に差が生じやすいよう、発話者の位置に対して最も左右間隔の広い2本を選ぶのが望ましい。 The left-right orientation determination is performed by using two averaged power elements apv 1, α (k), apv corresponding to two microphones 101-α and 101-β among the M microphones constituting the microphone array 101. This is done by taking a ratio of 1, β (k) and comparing it to a predetermined threshold value thr1. FIG. 4 illustrates an example of the determination image in the horizontal direction. In this example, the case where the speech is directed toward the midpoint between the microphone α and the microphone β shown in FIG. 4A is apv 1, α (k) / apv 1, β (k) = thr1, and this direction is set as follows. The reference speech direction in the left-right direction is determined based on the magnitude relationship between apv 1, α (k) / apv 1, β (k) and thr1. Specifically, since the rate of attenuation of apv 1, β (k) is larger than apv 1, α (k) as it goes to the left, apv 1, α (k) / apv 1, β (k )> Thr1 can be determined to be leftward (FIG. 4 (b)), and the more rightward is, the greater the rate at which apv 1, α (k) attenuates than apv 1, β (k). Therefore, when apv 1, α (k) / apv 1, β (k) <thr1, it can be determined to be rightward (FIG. 4 (c)). Note that the two microphones have the widest left-right spacing with respect to the speaker's position so that the average power elements apv 1, α (k) and apv 1, β (k) tend to differ. It is desirable to choose.

このような構成で左右方向の発話向きを判定することができる理論的背景を説明する。
図5は音声信号の伝搬特性を時間領域で示したものである。伝搬特性は、直接波、初期残響、後部残響の3つに大きく分けられるが、直接波、初期残響が観測される時間帯においては、複数本のマイクロホンで構成されたマイクロホンアレイに対して方向性を持った波が混入することが知られている。特に、初期残響時間帯(直接波到来後、直接波の収音パワーから10dB減衰するまでの時間)においては方向性を持った強い反射波が混在するが、この反射波のパワーは発話向きにより変化する。具体的には、発話向きが正面方向であるほど直接波のパワーが大きくなるため、反射波のパワーは小さくなり、また、横方向であるほど直接波のパワーが小さくなるため、その分反射波のパワーが大きくなる。本発明はこのような性質を利用して発話向きを推定する。
A theoretical background capable of determining the left-right direction of speech with such a configuration will be described.
FIG. 5 shows the propagation characteristics of the audio signal in the time domain. Propagation characteristics can be broadly divided into three types: direct wave, initial reverberation, and rear reverberation. In the time zone in which direct wave and initial reverberation are observed, the directivity with respect to the microphone array composed of a plurality of microphones. It is known that waves with In particular, in the initial reverberation time zone (after the arrival of the direct wave, the time from the direct wave pickup power to the attenuation of 10 dB), a strong reflected wave with directionality is mixed, but the power of this reflected wave depends on the direction of speech. Change. Specifically, since the direct wave power increases as the utterance direction is the front direction, the reflected wave power decreases, and the direct wave power decreases as it is in the horizontal direction. The power of will increase. The present invention uses such a property to estimate the speech direction.

これについて以下、本発明の構成に則して説明する。図6は、正面向き、横向きの発話
状態がどのように相関行列R(ω,k)の各固有値λi(ω,k)に影響するかを示したもので
ある。ここでは3本のマイクロホンでマイクロホンアレイを構成した場合を例示する。正
面向きの場合、マイクロホンアレイには直接波が多く到達し、反射波の到達割合は相対的
に低いため、図6(a)に示すように、直接波を表現する基底ベクトルが、反射波を表現する基底ベクトル群に比べて大きなパワーを持つ。この時、第1固有値λ1(ω,k)は第2固有値λ2(ω,k)、第3固有値λ3(ω,k)と比べ顕著に大きな値を示す。一方、横向きの場合、マイクロホンアレイに到達する直接波は減少するため、その分反射波が多く到達する。そのため、図6(b)に示すように、直接波を表現する基底ベクトルのパワーが減少し、反射波を表現する基底ベクトル群のパワーが増加する。そして、この時には第1固有値λ1(ω,k)は正面向きの場合より小さくなり、逆に第2固有値λ2(ω,k)、第3固有値λ3(ω,k)は正面向きの場合より大きくなる。正面向きの場合と横向きの場合とで各固有値に生じる差異のイメージを図7に示す。
This will be described below in accordance with the configuration of the present invention. FIG. 6 shows how the utterance state in front and side affects each eigenvalue λ i (ω, k) of the correlation matrix R (ω, k). Here, a case where a microphone array is configured by three microphones is illustrated. When facing the front, many direct waves reach the microphone array, and the arrival rate of the reflected waves is relatively low. Therefore, as shown in FIG. Compared to the basis vector group to be expressed, it has a large power. At this time, the first eigenvalue λ 1 (ω, k) is significantly larger than the second eigenvalue λ 2 (ω, k) and the third eigenvalue λ 3 (ω, k). On the other hand, in the case of the horizontal orientation, the direct waves that reach the microphone array are reduced, so that more reflected waves arrive accordingly. For this reason, as shown in FIG. 6B, the power of the basis vectors expressing the direct wave decreases, and the power of the basis vector group expressing the reflected wave increases. At this time, the first eigenvalue λ 1 (ω, k) is smaller than that in the front direction, and conversely, the second eigenvalue λ 2 (ω, k) and the third eigenvalue λ 3 (ω, k) are in the front direction. Larger than the case. FIG. 7 shows an image of the difference that occurs in each eigenvalue between the case of facing forward and the case of facing sideways.

以上のことから、直接波を表現する基底ベクトルのパワーは第1固有値に顕著に反映さ
れることがわかる。そしてそうであれば、第1固有値に対応する第1固有ベクトルの、M
本のマイクロホンに対応する各パワー要素の値は、直接波がM本のマイクロホンのそれぞ
れにどの程度の強さで届いているかの尺度となると考えることができる。そして、直接波
が各マイクロホンに届くパワーは発話向きによって変化する。そこで上記のように、基準
とする発話向きにおける任意の2本のマイクロホンのパワー要素の比をしきい値(thr1)
とし、そのしきい値とある発話向きの時の2本のマイクロホンのパワー要素の値の比とを
比較することで、その大小関係から、基準とする発話向きに対して左向きに発話したか右
向きに発話したかを判定することができる。
固有値分解部201は、更に上記した第1固有値λ1(ω,k)を、式(7)により正規化
して第1正規化固有値nλ1(ω,k)を出力する(S8)。
From the above, it can be seen that the power of the basis vector expressing the direct wave is significantly reflected in the first eigenvalue. And if so, M of the first eigenvector corresponding to the first eigenvalue
The value of each power element corresponding to a single microphone can be considered as a measure of how strong a direct wave reaches each of the M microphones. The power at which direct waves reach each microphone varies depending on the direction of speech. Therefore, as described above, the ratio of the power elements of any two microphones in the reference utterance direction is the threshold (thr1).
By comparing the threshold value and the ratio of the values of the power elements of the two microphones for a certain utterance direction, the utterance is uttered to the left or the right direction with respect to the reference utterance direction. It is possible to determine whether you have spoken.
The eigenvalue decomposition unit 201 further normalizes the first eigenvalue λ 1 (ω, k) as described above using Expression (7), and outputs a first normalized eigenvalue nλ 1 (ω, k) (S8).

Figure 2010206449
Figure 2010206449

第2周波数平均化処理部202は、各周波数ω毎に得られた第1正規化固有値nλ1(ω,
k)について式(8)により平均値を計算して、第1平均化固有値aλ1(k)を出力する(S9)。
The second frequency averaging processing unit 202 outputs the first normalized eigenvalue nλ 1 (ω, obtained for each frequency ω.
The average value of k) is calculated according to the equation (8), and the first averaged eigenvalue aλ 1 (k) is output (S9).

Figure 2010206449
Figure 2010206449

なお、F2は平均化に用いる周波数のインデックス、|F2|は周波数のインデックスの総
数であり、F2はΩ≧|F2|を満たすように適宜設定する。
F 2 is an index of frequencies used for averaging, | F 2 | is the total number of frequency indexes, and F 2 is appropriately set so as to satisfy Ω ≧ | F 2 |.

正面・横向き判定部203は、左右向き判定部106での判定結果と第1平均化固有値aλ1(k)とを入力とし、第1平均化固有値aλ1(k)を所定のしきい値thr2と比較することにより、aλ1(k)<thr2であれば発話者が上記マイクロホンアレイに対し横向きと判定し、そうでなければ正面向きと判定する。そして、横向きと判定した場合には左右向き判定部106での判定結果をそのまま出力し、そうでなければ正面向きであるとの判定結果を出力する(S10)。正面・横向き判定イメージを図10に例示する。ここで、thr2は環境や話者の位置によって任意に設定してよい。なお、第1平均化固有値aλ1(k)はフレームグループk毎に得られることから、判定結果もフレームグループk毎に出力される。 The front / horizontal direction determination unit 203 receives the determination result from the left / right direction determination unit 106 and the first averaged eigenvalue aλ 1 (k), and uses the first averaged eigenvalue aλ 1 (k) as a predetermined threshold value thr2. If aλ 1 (k) <thr2, the speaker determines that the speaker is facing sideways with respect to the microphone array, and otherwise determines that the speaker is facing frontward. If it is determined to be in the horizontal direction, the determination result in the left-right direction determination unit 106 is output as it is, and if not, the determination result that it is in the front direction is output (S10). FIG. 10 shows an example of the front / side orientation determination image. Here, thr2 may be arbitrarily set according to the environment and the position of the speaker. Since the first averaged eigenvalue aλ 1 (k) is obtained for each frame group k, the determination result is also output for each frame group k.

このような構成で発話向きが正面向きであるか横向きであるかを判定することができる理論的背景を説明する。直接波を表現する基底ベクトルのパワーは第1固有値に顕著に反映される。具体的には正面向きの場合には直接波を表現する基底ベクトルのパワーが大きい値を示すとともに第1固有値も大きな値を示す一方、横向きの場合には直接波を表現する基底ベクトルのパワーは正面向きの場合より小さくなり、第1固有値も小さくなる。そこで、第1固有値を正面・横向きの判定パラメータとして用いることで、第1固有値があるしきい値より大きければ正面向き、小さければ横向きであると適切に判定することができる。   A theoretical background that can determine whether the speech direction is the front direction or the horizontal direction with such a configuration will be described. The power of the basis vector representing the direct wave is significantly reflected in the first eigenvalue. Specifically, in the case of the front direction, the power of the base vector expressing the direct wave shows a large value and the first eigenvalue also shows a large value. The first eigenvalue is also smaller than when facing the front. Therefore, by using the first eigenvalue as a front / side determination parameter, it is possible to appropriately determine that the first eigenvalue is front-facing if it is larger than a certain threshold value and that it is lateral if it is smaller.

このように、第1実施形態の発話向き推定装置によれば、発話向きについて正面向き、
左向き、右向きのいずれであるかを判定することが可能となるため、ネットワークを介した相手方とのコミュニケーションをより円滑に行うことが可能となる。
第1実施形態では、固有値分解法によって空間相関行列R(ω,k)を分解し、発話者向きを推定する例を説明したが、他の方法も考えられる次にその代替手法について説明する。
Thus, according to the utterance direction estimation apparatus of the first embodiment, the utterance direction is the front direction,
Since it is possible to determine whether it is facing left or right, it is possible to more smoothly communicate with the other party via the network.
In the first embodiment, the example in which the spatial correlation matrix R (ω, k) is decomposed by the eigenvalue decomposition method and the direction of the speaker is estimated has been described. Next, an alternative method will be described in which other methods can be considered.

〔第2実施形態〕
図8に第2実施形態の発話者向き推定装置200の機能構成例を、図9にその処理フローを示す。発話向き推定装置200は、M本(Mは2以上の整数)のマイクロホン101−1〜101−Mからなるマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102と、発話位置推定部405と、基底行列生成部400と、相関行列分解部410と、周波数平均化処理部420と、正面・横向き生成部430とを備える。このうちマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102とは、第1実施形態にて説明済みのものと同じであるので、この部分の機能・処理の説明は省略する。
[Second Embodiment]
FIG. 8 shows a functional configuration example of the speaker orientation estimating apparatus 200 according to the second embodiment, and FIG. 9 shows a processing flow thereof. The utterance direction estimation apparatus 200 includes a microphone array 101 including M (M is an integer of 2 or more) microphones 101-1 to 101-M, an AD converter 12, a frequency domain converter 13, and a correlation matrix calculator. 102, an utterance position estimation unit 405, a base matrix generation unit 400, a correlation matrix decomposition unit 410, a frequency averaging processing unit 420, and a front / horizontal generation unit 430. Among these, the microphone array 101, the AD conversion unit 12, the frequency domain conversion unit 13, and the correlation matrix calculation unit 102 are the same as those described in the first embodiment. Description of is omitted.

発話者位置推定部405は、発話者の位置rを推定する。発話者の位置rを推定する方法は、複数考えられ、例えば、AD変換部12が出力するマイクロホン出力の時間差から推定しても良いし、図示しない撮像装置から画像情報を入手し、画像を分析して推定しても良い。また、発話者の位置rの情報を外部から得るようにしてもよい。   The speaker position estimation unit 405 estimates the position r of the speaker. There are a plurality of methods for estimating the position r of the speaker. For example, it may be estimated from the time difference between the microphone outputs output from the AD converter 12, or image information is obtained from an imaging device (not shown) and the image is analyzed. And may be estimated. Further, information on the position r of the speaker may be obtained from the outside.

〔基底行列生成部〕
基底行列生成部400は、その位置情報rと、周波数領域変換部13の出力する各マイクロホンの周波数領域の信号X(ω,n)を入力として、行列分解のための軸である基底数Dの基底行列を生成する(S400)。ここで、基底数Dは、特にマイクロホン数Mと同じにする必要はなく、2以上の整数である。以下、基底行列UU(ω,k)の生成方法を説明する。
[Base matrix generator]
The base matrix generation unit 400 receives the position information r and the frequency domain signal X M (ω, n) of each microphone output from the frequency domain conversion unit 13 as input, and the basis number D that is an axis for matrix decomposition. A base matrix is generated (S400). Here, the base number D does not need to be the same as the number of microphones M, and is an integer of 2 or more. Hereinafter, a method for generating the basis matrix UU (ω, k) will be described.

まず、一番目の基底uu(ω,k)=[uu11(ω,k),…,uu1M(ω,k)]を各周波数ω、フレームk毎に設計する。uu(ω,k)の設計にはいくつかの方法が考えられる。その内の2種類の方法について説明する。 First, the first basis uu 1 (ω, k) = [uu 11 (ω, k),..., Uu 1M (ω, k)] is designed for each frequency ω and frame k. Several methods are conceivable for designing uu 1 (ω, k). Two types of methods will be described.

その一つとして直接音経路の伝達特性を模擬する方法が考えられる。その方法は、音源位置rにある音源とM本のマイクロホン間の伝達特性の周波数表現H^H(ω,r)=[H^H(ω,r),…,H^H(ω,r)]を用意する。ここで、H^H〜H^Hは音源と各マイクロホン間の伝達特性を表す伝達関数である。各フレームk毎に、発話者位置推定部405が推定した発話者の位置rを入力として、各周波数ω毎にuu′(ω,r)=[H^H(ω,r),…,H^H(ω,r)]とする。ここで、伝達関数は予め用意された実測値を用いても良いし、シミュレーションで計算した値を用いても良い。最後に式(9)のように正規化することでuu(ω,k)を得る。 One possible method is to simulate the transfer characteristics of the direct sound path. The method uses a frequency expression H ^ H (ω, r) = [H ^ H 1 (ω, r),..., H ^ H M (ω , R)]. Here, H ^ H 1 ~H ^ H M is the transfer function representing the transmission characteristic between the sound sources and each microphone. For each frame k, the speaker's position r estimated by the speaker position estimation unit 405 is used as an input, and uu ′ 1 (ω, r) = [H ^ H 1 (ω, r),. , H ^ H M (ω, r)]. Here, as the transfer function, an actual measurement value prepared in advance may be used, or a value calculated by simulation may be used. Finally, uu 1 (ω, k) is obtained by normalization as in equation (9).

Figure 2010206449
Figure 2010206449

また、他にエリア強調フィルタを用いる方法も考えられる。その方法は、各フレームk毎に発話者位置推定部405が推定した位置情報rを得て、位置rにある音を強調するフィルタu(ω,k)=[u11(ω,k),…,u1M(ω,k)]を各フレームk、周波数ω毎に設計する。エリア強調フィルタu(ω,k)は、例えば式(10)を計算することで得られる。 Another method using an area enhancement filter is also conceivable. The method obtains position information r estimated by the speaker position estimation unit 405 for each frame k, and filters u to u 1 (ω, k) = [u to u 11 ( ω, k),..., u to u 1M (ω, k)] T is designed for each frame k and frequency ω. The area enhancement filters u to u 1 (ω, k) can be obtained by, for example, calculating Expression (10).

Figure 2010206449
Figure 2010206449

ここで、h11(ω)=[h111(ω),…,h11M(ω)]は強調したいエリアの代表的な伝達特性、h1q(ω)=[h1q1(ω),…,h1qM(ω)](qは2以上L以下の整数)は強調したくないエリアの代表的な伝達特性であり、L−1個用意する。Lは2以上の整数である。また、L=Mでない場合、逆行列演算は正則ではないので、擬似逆行列演算となる。最後に式(11)のように正規化することでuu(ω,k)を得る。 Here, h to h 11 (ω) = [h to h 111 (ω),..., H to h 11M (ω)] T is a typical transfer characteristic of an area to be emphasized, and h to h 1q (ω) = [h to h 1q1 (ω),..., h to h 1qM (ω)] T (q is an integer of 2 or more and L or less) is a typical transfer characteristic of an area that is not desired to be emphasized, and L−1 are prepared. To do. L is an integer of 2 or more. Further, when L = M is not satisfied, the inverse matrix operation is not regular, and thus becomes a pseudo inverse matrix operation. Finally, uu 1 (ω, k) is obtained by normalization as in equation (11).

Figure 2010206449
Figure 2010206449

次に、上記したどちらかの方法で求めた一番目の基底uu(ω,k)を基に基底数Dのuu(ω,k),…,uu(ω,k)を算出し、基底行列UU(ω,k)を生成する。この基底行列UU(ω,k)を生成する方法を次に説明する。
まず、正規直交基底で基底行列UU(ω,k)を生成する方法が考えられる。その方法の一つは、ベクトルuu(ω,k)に直交な基底を、例えばグラムシュミット法で生成する。式(12)と式(13)の計算をD−1回繰り返すことで、D−1個のベクトルuu(ω,k),…,uu(ω,k)を生成できる。
Next, uu 2 (ω, k),..., Uu D (ω, k) of the basis number D is calculated based on the first basis uu 1 (ω, k) obtained by either of the above methods. Then, a basis matrix UU (ω, k) is generated. A method for generating this basis matrix UU (ω, k) will now be described.
First, a method of generating a basis matrix UU (ω, k) with orthonormal basis is conceivable. One of the methods generates a base orthogonal to the vector uu 1 (ω, k) by, for example, the Gram Schmitt method. It is possible to generate D−1 vectors uu 2 (ω, k),..., Uu D (ω, k) by repeating the calculations of Expression (12) and Expression (13) D−1 times.

Figure 2010206449
Figure 2010206449

ここでχ(ω,k)はn番目の基底uu(ω,k)の初期値で、‖uu(ω,k)‖≠0となるようにランダムに与えればよい。また、uu(ω,k)から順に帰納的にuu(ω,k)まで生成する。
また、エリア強調フィルタを用いて基底行列UU(ω,k)を生成することもできる。その方法は、既に生成された一番目の基底uu(ω,k)で強調するエリアとは別のエリアを強調するフィルタを生成し、式(14)の計算で基底uu(ω,k),…,uu(ω,k)を求める。
Here, χ n (ω, k) is an initial value of the n-th basis uu n (ω, k), and may be given randomly so that ‖u n (ω, k) ‖ ≠ 0. In addition, uu 2 (ω, k) is sequentially generated up to uu M (ω, k).
In addition, the base matrix UU (ω, k) can be generated using an area enhancement filter. The method generates a filter that emphasizes an area different from the area emphasized by the first basis uu 1 (ω, k) already generated, and calculates the basis uu 2 (ω, k) by the calculation of Expression (14). ,..., Uu D (ω, k) is obtained.

Figure 2010206449
Figure 2010206449

ここで、hn1(ω)=[hn11(ω),…,hn1M(ω)]は、n番目の基底が強調したいエリアの代表的な伝達特性、hnq(ω)=[hnq1(ω),…,hnqM(ω)](qは2以上L以下の整数)はn番目の基底が強調したくないエリアの代表的な伝達特性であり、L−1個用意する。Lは2以上の整数である。また、L=Mでない場合、逆行列演算は正則ではないので、擬似逆行列演算となる。そして、式(15)のように正規化することで、uu(ω,k)を得る。 Here, h to h n1 (ω) = [h to h n11 (ω),..., H to h n1M (ω)] T is a typical transfer characteristic of an area to be emphasized by the nth base, h to h nq (ω) = [h to h nq1 (ω),..., h to h nqM (ω)] T (q is an integer of 2 or more and L or less) is a representative area where the nth base is not emphasized L-1 are prepared. L is an integer of 2 or more. Further, when L = M is not satisfied, the inverse matrix operation is not regular, and thus becomes a pseudo inverse matrix operation. Then, uu n (ω, k) is obtained by normalizing as in Expression (15).

Figure 2010206449
Figure 2010206449

〔相関行列分解部〕
相関行列分解部410は、各周波数ω、フレームk毎に相関行列R(ω,k)と基底行列UU(ω,k)=[uu(ω,k),…,uu(ω,k)]を入力とし、成分列L(ω,k)=[L(ω,k),…,L(ω,k)]を出力する(S410)。
成分列L(ω,k)は、相関行列R(ω,k)を基底行列UU(ω,k)に射影することで得られる正面・横向き判定に有効な特徴量である。射影とは、相関行列R(ω,k)と基底行列UU(ω,k)の類似度合いを計算することである。つまり、式(16)の計算によって成分列L(ω,k)を構成する要素L(ω,k),…,L(ω,k)を得る。
[Correlation matrix decomposition unit]
Correlation matrix decomposition section 410 has correlation matrix R (ω, k) and basis matrix UU (ω, k) = [uu 1 (ω, k),..., Uu D (ω, k) for each frequency ω and frame k. )] With T as an input, a component sequence L (ω, k) = [L 1 (ω, k),..., L D (ω, k)] is output (S410).
The component sequence L (ω, k) is a feature quantity effective for front / side determination obtained by projecting the correlation matrix R (ω, k) onto the base matrix UU (ω, k). Projection is to calculate the degree of similarity between the correlation matrix R (ω, k) and the base matrix UU (ω, k). That is, the elements L 1 (ω, k),..., L D (ω, k) constituting the component sequence L (ω, k) are obtained by the calculation of Expression (16).

Figure 2010206449
Figure 2010206449

ここでHは複素共役転置を意味する。
〔周波数平均化処理部〕
周波数平均化処理部420は、相関行列分解部410から出力される成分列L(ω,k)を入力とし、各フレームk毎に周波数ωで平均化された周波数平均化成分列L(k)=[L (k),…,L (k)]を出力する(S420)。周波数平均化成分列L(k)の各要素は、式(17)で計算される。
Here, H means complex conjugate transpose.
[Frequency averaging processing section]
The frequency averaging processing unit 420 receives the component sequence L (ω, k) output from the correlation matrix decomposing unit 410 and receives the frequency averaged component sequence L (k) averaged at the frequency ω for each frame k. ) = [L 1 (k),..., L D (k)] is output (S420). Frequency averaging component column L - each element of (k) can be expressed by equation (17).

Figure 2010206449
Figure 2010206449

ここで、|F|は周波数平均化処理で用いる周波数インデックスの総数である。
正面・横向き判定部430は、周波数平均化された周波数平均化成分列L(k)を入力として、各フレームk毎に話者が「正面向き」の状態にあるのか、それとも「横向き」の状態にあるのかを判定して出力する(S430)。正面・横向き判定部430は、周波数平均化成分列L(k)を入力とする点のみが、第1平均化固有値aλ(k)を入力とする第1実施形態の正面・横向き判定部203と異なる。処理や理論的な背景は第1実施形態の正面・横向き判定部203と同じである。
Here, | F 3 | is the total number of frequency indexes used in the frequency averaging process.
Front-lateral determining unit 430, frequency averaged frequency averaged component column L - as input (k), the speaker for each frame k is whether a state of "frontal", or the "horizontal" Whether it is in a state is determined and output (S430). The front / side orientation determination unit 430 receives the first averaged eigenvalue aλ 1 (k) only as an input from the frequency averaged component sequence L (k). 203. Processing and theoretical background are the same as those of the front / side orientation determination unit 203 of the first embodiment.

以上説明したように、固有値分解法を用いた空間相関行列R(ω,k)を分解する方法によらなくても発話者向きを推定することが可能である。なお、第2実施形態は話者が「正面向き」か「横向きか」しか判定しない例であるが、更に左右向きも判定することも可能である。次に左右向きを判定できるようにした第3実施形態を説明する。   As described above, it is possible to estimate the speaker direction without using the method of decomposing the spatial correlation matrix R (ω, k) using the eigenvalue decomposition method. The second embodiment is an example in which the speaker is only determined to be “front-facing” or “landscape-oriented”, but it is also possible to determine the left-right orientation. Next, a description will be given of a third embodiment in which the horizontal direction can be determined.

〔第3実施形態〕
図11に第3実施形態の発話者向き推定装置300の機能構成例を示す。発話向き推定装置300は、第2実施形態の発話者向き推定装置200の機能構成に、第1実施形態の発話者向き推定装置100の固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106との機能構成を追加したものである。また、正面・横向き判定部110が、左右向き判定結果を入力として話者の発話方向の左右方向も判定する点で発話者向き推定装置200と異なる。
[Third Embodiment]
FIG. 11 shows a functional configuration example of the speaker orientation estimating apparatus 300 according to the third embodiment. The utterance direction estimation apparatus 300 includes, in the functional configuration of the utterer direction estimation apparatus 200 of the second embodiment, an eigenvalue decomposition unit 201 of the utterer direction estimation apparatus 100 of the first embodiment, a first eigenvector power calculation unit 104, Functional configurations of a first frequency averaging processing unit 105 and a left / right direction determination unit 106 are added. Further, the front / side orientation determination unit 110 is different from the speaker orientation estimation device 200 in that the left / right direction of the speaker's utterance direction is also determined by using the left / right direction determination result as an input.

なお、固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106については、説明済みであるが、第3実施形態の構成を明瞭にする目的で、各部の機能の説明のみを再度行い、その処理フローを参照した説明は省略する。   Although the eigenvalue decomposition unit 201, the first eigenvector power calculation unit 104, the first frequency averaging processing unit 105, and the left / right direction determination unit 106 have been described, the configuration of the third embodiment is clearly described. Therefore, only the function of each part will be described again, and the description referring to the processing flow will be omitted.

固有値分解部201は、相関行列R(ω,k)を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する。   The eigenvalue decomposition unit 201 includes a correlation matrix R (ω, k), an eigenvalue matrix that is a diagonal matrix having the squares of M eigenvalues as diagonal elements, and M eigenvectors corresponding to the eigenvalues. The eigenvector matrix is decomposed and an eigenvector corresponding to the maximum eigenvalue (hereinafter referred to as “first eigenvector”) is output.

第1固有ベクトルパワー計算部104は、第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する。第1周波数平均化処理部105は、各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する。左右向き判定部106は、M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する。   The first eigenvector power calculation unit 104 calculates the power for each of M elements constituting the first eigenvector, and outputs M power elements. The first frequency averaging processing unit 105 calculates an average value for each of the M power elements generated for each frequency, and outputs M averaged power elements. The left / right direction determination unit 106 calculates a ratio of two averaged power elements corresponding to two arbitrary microphones among the M averaged power elements, and compares the ratio with a predetermined threshold value. Then, it is determined whether the speaker speaks leftward or rightward with respect to the microphone array, and the left / right direction determination result is output.

正面・横向き判定部110は、左右向き判定部106の出力する左右向き判定結果を入力として、フレーム毎に話者の発話方向が正面方向であるか否かと、左向き又は右向きに発話したかを判定する。   The front / horizontal direction determination unit 110 receives the left / right direction determination result output from the left / right direction determination unit 106 as an input, and determines whether or not the speaker's utterance direction is the front direction for each frame and whether the utterance is leftward or rightward. To do.

上記の各実施形態の発話向き推定装置の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この場合、処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
また、上述の各種処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
When the configuration of the utterance direction estimation device of each of the above embodiments is realized by a computer, the processing contents of the functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer. In this case, at least a part of the processing content may be realized by hardware.
Further, the various processes described above are not only executed in time series according to the description, but may be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. In addition, it can change suitably in the range which does not deviate from the meaning of this invention.

〔効果の検証〕
図12(a)に示す収音環境において、図12(b)に示す条件の下で、本発明の効果の検証を行った。なお、発話向きの定義は図12(c)に示すとおりである。
[Verification of effects]
In the sound collection environment shown in FIG. 12 (a), the effect of the present invention was verified under the conditions shown in FIG. 12 (b). The definition of the utterance direction is as shown in FIG.

図13に各発話向きと第1〜第7平均化固有値aλi(k)との関係を示す。ここで、第2〜第7平均化固有値は第1平均化固有値と同様な方法で求めたものである。また、図13(a)は残響時間が250msecの場合、図13(b)は残響時間が400msecの場合である。いずれの残響時間の場合も、第1平均化固有値は発話向きによって大きく異なるが、第2〜第7平均化固有値は発話向きによる差が小さい。また、第1固有値は0°(正面向き)の時が最も大きく、±90°(横向き)の時が最も小さい。この検証結果より、第2実施形態に示した第1平均化固有値により正面・横向きを判定する本発明の構成が妥当かつ有効であることがわかる。 FIG. 13 shows the relationship between each utterance direction and the first to seventh averaged eigenvalues aλ i (k). Here, the second to seventh averaged eigenvalues are obtained by the same method as the first averaged eigenvalue. FIG. 13A shows the case where the reverberation time is 250 msec, and FIG. 13B shows the case where the reverberation time is 400 msec. In any reverberation time, the first averaged eigenvalue varies greatly depending on the speech direction, but the second to seventh averaged eigenvalues have a small difference depending on the speech direction. The first eigenvalue is the largest when it is 0 ° (frontward) and the smallest when it is ± 90 ° (laterally). From this verification result, it can be seen that the configuration of the present invention for determining the front / sideways orientation based on the first averaged eigenvalue shown in the second embodiment is valid and effective.

また、図14に第1実施形態の構成により推定した左右方向の発話向きと実際の発話向きとの比較を示す。図14(a)は残響時間が250msecの場合、図14(b)は残響時間が400msecの場合である。いずれの残響時間の場合も、75%以上の正解率が得られた。この検証結果より、第1実施形態に示した第1固有ベクトルの2つのパワー要素から左右向きを判定する本発明の構成が妥当かつ有効であることがわかる。   FIG. 14 shows a comparison between the utterance direction in the left-right direction estimated by the configuration of the first embodiment and the actual utterance direction. FIG. 14A shows the case where the reverberation time is 250 msec, and FIG. 14B shows the case where the reverberation time is 400 msec. In any reverberation time, a correct answer rate of 75% or more was obtained. From this verification result, it can be seen that the configuration of the present invention for determining the left-right direction from the two power elements of the first eigenvector shown in the first embodiment is valid and effective.

〔サービス適用例〕
図15は音声会議端末に本発明を組み込んだサービスの構成例である。会議場Aと会議場Bとをネットワークを通じて音声端末で繋がれている状況を想定する。音声会議端末に取り付けられたマイクロホンで収音した音声信号から発話向き情報を抽出し、音声情報と共に相手側へ伝送する。相手側にて、発話向き情報を視覚情報として提示することで、音声情報だけでは伝わりにくかった場の状況を伝達することができる。
[Service application example]
FIG. 15 is a structural example of a service in which the present invention is incorporated into an audio conference terminal. Assume that the conference hall A and the conference hall B are connected by a voice terminal through a network. Speech direction information is extracted from a voice signal picked up by a microphone attached to the voice conference terminal, and transmitted to the other party along with the voice information. By presenting the utterance direction information as visual information on the other party side, it is possible to convey the situation of the place that is difficult to convey only with the voice information.

また、会議でのやりとりの様子を映像や音声を用いて記録する議事録システムにも発話者向き推定技術を応用できる。発話者向き推定技術によって、収録した音声や映像に誰が誰に向かって話したかというタグを付けることができるので、議事録の整理作業に役立つ。また、画像で顔向きを検出して行うサービス、例えば、監視カメラやインターフォン等で用いられる監視・防犯目的のサービスや、ディジタルサイネージ(電子看板)で広告に注目しているか否かを判定するサービス等も、音声信号出力に置き換えることが可能である。   In addition, the speaker orientation estimation technology can be applied to a minutes system that records the state of communication in a conference using video and audio. The speaker orientation estimation technology can tag the recorded voice and video as to who spoke to whom, which is useful for organizing minutes. In addition, services performed by detecting face orientation in images, for example, surveillance / crime prevention services used with surveillance cameras and intercoms, and services that determine whether or not attention is paid to advertisements using digital signage (digital signage) Etc. can also be replaced with an audio signal output.

Claims (9)

M本(Mは2以上の整数)のマイクロホンで収音したアナログ音声信号を、それぞれディジタル音声信号に変換するAD変換部と、
上記ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する周波数領域変換部と、
各周波数毎に、周波数領域に変換されたそれぞれの上記ディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成し出力する相関行列計算部と、
上記ディジタル音声信号と話者位置の推定情報を入力として、D個(Dは2以上の整数)の基底から成る基底行列を生成する基底行列生成部と、
フレーム毎に上記相関行列と上記基底行列を入力として、上記相関行列を上記基底行列に射影させて正面・横向き判定に有効な特徴量である成分列を得る相関行列分解部と、
上記成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する周波数平均化処理部と、
上記周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する正面・横向き判定部と、
を具備する発話向き推定装置。
An AD converter for converting analog audio signals picked up by M microphones (M is an integer of 2 or more) into digital audio signals;
A frequency domain transforming unit that transforms the digital audio signal from a time domain to a frequency domain in units of frames of a plurality of samples;
A correlation matrix calculation unit that sequentially generates and outputs an M × M correlation matrix representing the correlation between the digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames;
A base matrix generation unit that generates a base matrix composed of D (D is an integer of 2 or more) bases by using the digital speech signal and speaker position estimation information as inputs;
A correlation matrix decomposing unit that receives the correlation matrix and the base matrix for each frame, and projects the correlation matrix onto the base matrix to obtain a component sequence that is an effective feature quantity for front / lateral determination;
With the above component sequence as an input, a frequency averaging processing unit that outputs a frequency averaged component sequence averaged by frequency for each frame;
Using the frequency averaged component sequence as an input, a front / side orientation determination unit that estimates whether the direction of the speaker's utterance is the front direction for each frame, and
An utterance direction estimation device comprising:
請求項1に記載した発話向き推定装置において、
更に、
上記相関行列を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する固有値分解部と、
上記第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する第1固有ベクトルパワー計算部と、
各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する第1周波数平均化処理部と、
上記M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する左右向き判定部と、
を具備し、
上記正面・横向き判定部は、上記左右向き判定結果を入力としてフレーム毎に話者の発話の向きが正面方向であるか否か及び、左向きに発話したか右向きに発話したかを判定するものであることを特徴とする発話向き推定装置。
In the utterance direction estimation apparatus according to claim 1,
Furthermore,
The correlation matrix is decomposed into an eigenvalue matrix that is a diagonal matrix having the squares of the M eigenvalues as diagonal elements, and an eigenvector matrix composed of M eigenvectors corresponding to the eigenvalues, and the maximum eigenvalue is obtained. An eigenvalue decomposition unit that outputs a corresponding eigenvector (hereinafter referred to as “first eigenvector”);
A first eigenvector power calculator that calculates power for each of M elements constituting the first eigenvector and outputs M power elements;
A first frequency averaging processor that calculates an average value for each of the M power elements generated for each frequency and outputs M averaged power elements;
Of the M averaged power elements, the ratio of two averaged power elements corresponding to any two microphones is taken and compared with a predetermined threshold value so that the speaker can A left-right orientation determination unit that determines whether the speech is directed leftward or rightward with respect to the array and outputs a left-right orientation determination result;
Comprising
The front / side orientation determination unit receives the left / right orientation determination result as input and determines whether or not the direction of the speaker's utterance is the front direction for each frame and whether the utterance is uttered leftward or rightward. An utterance direction estimation device characterized by being.
請求項1又は2に記載した発話向き推定装置において、
上記基底行列生成部は、上記基底行列の1番目の基底を、直接音経路の伝達特性を模擬する方法で求め、その第1番目の基底を基に互いに直交する複数の基底ベクトルを求め、上記相関行列を分解する基底行列を生成することを特徴とする発話向き推定装置。
In the utterance direction estimation apparatus according to claim 1 or 2,
The basis matrix generation unit obtains a first basis of the basis matrix by a method of simulating transfer characteristics of a direct sound path, obtains a plurality of basis vectors orthogonal to each other based on the first basis, An utterance direction estimation apparatus characterized by generating a base matrix for decomposing a correlation matrix.
請求項1又は2に記載した発話向き推定装置において、
上記基底行列生成部は、上記基底行列の1番目の基底を、エリア強調フィルタで求め、その第1番目の基底とは別のエリアの音を強調するようなフィルタを設け、上記相関行列を分解する上記フィルタを用いて基底行列を生成することを特徴とする発話向き推定装置。
In the utterance direction estimation apparatus according to claim 1 or 2,
The basis matrix generation unit obtains a first basis of the basis matrix by an area enhancement filter, and provides a filter for enhancing sounds in an area different from the first basis, and decomposes the correlation matrix An utterance direction estimation apparatus characterized by generating a base matrix using the filter.
AD変換部が、M本(Mは2以上の整数)のマイクロホンで収音したアナログ音声信号を、それぞれディジタル音声信号に変換するAD変換過程と、
周波数領域変換部が、上記ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する周波数領域変換過程と、
相関行列計算部が、各周波数毎に、周波数領域に変換されたそれぞれの上記ディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成し出力する相関行列計算過程と、
基底行列生成部が、上記ディジタル音声信号と話者位置の推定情報を入力として、基底数D(Dは2以上の整数)の基底行列を生成する基底行列生成過程と、
相関行列分解部が、フレーム毎に上記相関行列と上記基底行列を入力として、上記相関行列を上記基底行列に射影させて正面・横向き判定に有効な特徴量である成分列を得る相関行列分解過程と、
周波数平均化処理部が、上記成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する周波数平均化処理過程と、
正面・横向き判定部が、上記周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する正面・横向き判定過程と、
を含む発話向き推定方法。
An AD conversion process in which an AD conversion unit converts analog audio signals picked up by M (M is an integer of 2 or more) microphones into digital audio signals;
A frequency domain transforming process in which the frequency domain transforming unit transforms the digital audio signal from the time domain to the frequency domain in units of frames composed of a plurality of samples;
Correlation matrix calculation unit that sequentially generates and outputs an M × M correlation matrix representing the correlation between the digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames. Process,
A basis matrix generation process in which a basis matrix generation unit generates a basis matrix having a basis number D (D is an integer of 2 or more) by using the digital speech signal and speaker position estimation information as inputs;
Correlation matrix decomposition process for obtaining a component sequence that is an effective feature quantity for front / horizontal determination by inputting the correlation matrix and the base matrix for each frame and projecting the correlation matrix onto the base matrix for each frame When,
A frequency averaging processing step in which the frequency averaging processing unit outputs the frequency averaged component sequence averaged by frequency for each frame, using the component sequence as an input;
A front / side orientation determination unit that receives the frequency averaged component sequence as an input and estimates whether the direction of the speaker's utterance is the front direction for each frame;
Speech direction estimation method including
請求項5に記載した発話向き推定方法において、
更に、
固有値分解部が、上記相関行列を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する固有値分解過程と、
第1固有ベクトルパワー計算部が、上記第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する第1固有ベクトルパワー計算過程と、
第1周波数平均化処理部が、各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する第1周波数平均化処理過程と、
左右向き判定部が、上記M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する左右向き判定過程と、
を含み、
上記正面・横向き判定過程は、上記左右向き判定結果を入力としてフレーム毎に話者の発話の向きが正面方向であるか否か及び、左向きに発話したか右向きに発話したかを判定する過程であることを特徴とする発話向き推定方法。
In the speech direction estimation method according to claim 5,
Furthermore,
An eigenvalue decomposition unit decomposes the correlation matrix into an eigenvalue matrix that is a diagonal matrix whose diagonal elements are the squares of the M eigenvalues and an eigenvector matrix composed of M eigenvectors corresponding to the eigenvalues. Eigenvalue decomposition process for outputting an eigenvector corresponding to the largest eigenvalue (hereinafter referred to as “first eigenvector”);
A first eigenvector power calculation unit that calculates power for each of M elements constituting the first eigenvector and outputs M power elements;
A first frequency averaging processor that calculates an average value for each of the M power elements generated for each frequency and outputs M averaged power elements;
The left-right direction determination unit takes a ratio of two averaged power elements corresponding to two arbitrary microphones out of the M averaged power elements, and compares it with a predetermined threshold value. , A left-right direction determination process for determining whether the speaker speaks leftward or rightward with respect to the microphone array and outputs a left-right direction determination result;
Including
The front / horizontal determination process is a process of determining whether the direction of the speaker's utterance is the front direction for each frame with the result of the determination of the left / right direction as an input, and whether the speaker is speaking leftward or rightward. A speech direction estimation method characterized by being.
請求項5又は6に記載した発話向き推定方法において、
上記基底行列生成過程は、上記基底行列の1番目の基底を、直接音経路の伝達特性を模擬する方法で求め、その第1番目の基底を基に互いに直交する複数の基底ベクトルを求め、上記相関行列を分解する基底行列を生成することを特徴とする発話向き推定方法。
In the speech direction estimation method according to claim 5 or 6,
In the basis matrix generation process, the first basis of the basis matrix is obtained by a method of simulating the transfer characteristic of the direct sound path, and a plurality of basis vectors orthogonal to each other based on the first basis are obtained, An utterance direction estimation method comprising generating a base matrix for decomposing a correlation matrix.
請求項5又は6に記載した発話向き推定方法において、
上記基底行列生成過程は、上記基底行列の1番目の基底を、エリア強調フィルタで求め、その第1番目の基底とは別のエリアの音を強調するようなフィルタを設け、上記相関行列を分解する上記フィルタを用いて基底行列を生成することを特徴とする発話向き推定方法。
In the speech direction estimation method according to claim 5 or 6,
In the base matrix generation process, a first base of the base matrix is obtained by an area emphasis filter, and a filter for emphasizing sounds in a different area from the first base is provided, and the correlation matrix is decomposed. A utterance direction estimation method, wherein a basis matrix is generated using the filter.
請求項1乃至4の何れかに記載した発話向き推定装置としてコンピュータを機能させる装置プログラム。   An apparatus program for causing a computer to function as the speech direction estimating apparatus according to claim 1.
JP2009048971A 2009-03-03 2009-03-03 Utterance direction estimation apparatus, method and program Expired - Fee Related JP5235725B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009048971A JP5235725B2 (en) 2009-03-03 2009-03-03 Utterance direction estimation apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048971A JP5235725B2 (en) 2009-03-03 2009-03-03 Utterance direction estimation apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2010206449A true JP2010206449A (en) 2010-09-16
JP5235725B2 JP5235725B2 (en) 2013-07-10

Family

ID=42967497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048971A Expired - Fee Related JP5235725B2 (en) 2009-03-03 2009-03-03 Utterance direction estimation apparatus, method and program

Country Status (1)

Country Link
JP (1) JP5235725B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085035A (en) * 2010-10-08 2012-04-26 National Institute Of Information & Communication Technology Acoustic field sharing system and optimization method
KR101232365B1 (en) 2011-08-19 2013-02-13 경희대학교 산학협력단 Apparatus and method for multiple moving source positioning in wireless sensor network
WO2017111298A1 (en) * 2015-12-21 2017-06-29 호서대학교 산학협력단 Underwater communication method
JP2019168730A (en) * 2013-12-05 2019-10-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Estimating room impulse response for acoustic echo cancellation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243494A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing direction of face
JP2001236093A (en) * 2000-02-24 2001-08-31 Omron Corp Electronic equipment controller and electronic equipment
JP2003061184A (en) * 2001-08-14 2003-02-28 Sony Corp Information processing apparatus and method, information generating device and method, recording medium and program
JP2004109712A (en) * 2002-09-20 2004-04-08 Nec Engineering Ltd Speaker's direction detecting device
JP2007006253A (en) * 2005-06-24 2007-01-11 Sony Corp Signal processor, microphone system, and method and program for detecting speaker direction
JP2009517936A (en) * 2005-11-30 2009-04-30 ノエミ バレンズエラ ミリアム Method for recording and playing back sound sources with time-varying directional characteristics

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10243494A (en) * 1997-03-03 1998-09-11 Nippon Telegr & Teleph Corp <Ntt> Method and device for recognizing direction of face
JP2001236093A (en) * 2000-02-24 2001-08-31 Omron Corp Electronic equipment controller and electronic equipment
JP2003061184A (en) * 2001-08-14 2003-02-28 Sony Corp Information processing apparatus and method, information generating device and method, recording medium and program
JP2004109712A (en) * 2002-09-20 2004-04-08 Nec Engineering Ltd Speaker's direction detecting device
JP2007006253A (en) * 2005-06-24 2007-01-11 Sony Corp Signal processor, microphone system, and method and program for detecting speaker direction
JP2009517936A (en) * 2005-11-30 2009-04-30 ノエミ バレンズエラ ミリアム Method for recording and playing back sound sources with time-varying directional characteristics

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085035A (en) * 2010-10-08 2012-04-26 National Institute Of Information & Communication Technology Acoustic field sharing system and optimization method
KR101232365B1 (en) 2011-08-19 2013-02-13 경희대학교 산학협력단 Apparatus and method for multiple moving source positioning in wireless sensor network
JP2019168730A (en) * 2013-12-05 2019-10-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Estimating room impulse response for acoustic echo cancellation
WO2017111298A1 (en) * 2015-12-21 2017-06-29 호서대학교 산학협력단 Underwater communication method

Also Published As

Publication number Publication date
JP5235725B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
US10123113B2 (en) Selective audio source enhancement
US8880395B2 (en) Source separation by independent component analysis in conjunction with source direction information
US7995767B2 (en) Sound signal processing method and apparatus
US8229129B2 (en) Method, medium, and apparatus for extracting target sound from mixed sound
US20130294611A1 (en) Source separation by independent component analysis in conjuction with optimization of acoustic echo cancellation
JP5375400B2 (en) Audio processing apparatus, audio processing method and program
JP5123595B2 (en) Near-field sound source separation program, computer-readable recording medium recording this program, and near-field sound source separation method
JP2008236077A (en) Target sound extracting apparatus, target sound extracting program
KR20080073936A (en) Apparatus and method for beamforming reflective of character of actual noise environment
EP3113508B1 (en) Signal-processing device, method, and program
Padois et al. On the use of modified phase transform weighting functions for acoustic imaging with the generalized cross correlation
CN102968999B (en) Audio signal processing
JP5235725B2 (en) Utterance direction estimation apparatus, method and program
JP5235605B2 (en) Utterance direction estimation apparatus, method and program
Padois et al. On the use of geometric and harmonic means with the generalized cross-correlation in the time domain to improve noise source maps
JP5235722B2 (en) Utterance direction estimation apparatus, method and program
JP5235723B2 (en) Utterance direction estimation apparatus, method and program
JP5635024B2 (en) Acoustic signal emphasizing device, perspective determination device, method and program thereof
JP5235724B2 (en) Utterance front / side direction estimation apparatus, method and program
JP5815489B2 (en) Sound enhancement device, method, and program for each sound source
Ihara et al. Multichannel speech separation and localization by frequency assignment
JP6323901B2 (en) Sound collection device, sound collection method, and program
Bai et al. Kalman filter-based microphone array signal processing using the equivalent source model
JP5713933B2 (en) Sound source distance measuring device, acoustic direct ratio estimating device, noise removing device, method and program thereof
JP4173469B2 (en) Signal extraction method, signal extraction device, loudspeaker, transmitter, receiver, signal extraction program, and recording medium recording the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees