JP2010206449A - Speech direction estimation device and method, and program - Google Patents
Speech direction estimation device and method, and program Download PDFInfo
- Publication number
- JP2010206449A JP2010206449A JP2009048971A JP2009048971A JP2010206449A JP 2010206449 A JP2010206449 A JP 2010206449A JP 2009048971 A JP2009048971 A JP 2009048971A JP 2009048971 A JP2009048971 A JP 2009048971A JP 2010206449 A JP2010206449 A JP 2010206449A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- frequency
- basis
- speaker
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
Description
本発明は、マイクロホンに入力された音声信号から発話者の発話向きを推定する技術に関する。 The present invention relates to a technique for estimating the utterance direction of a speaker from an audio signal input to a microphone.
電話や音声会議端末等の音声情報をやりとりするシステムを一般に音声通信システムと呼ぶ。TV会議システムでは音声情報に映像を付加して提示するため場の状況が伝わりやすいが、音声通信システムでは相手側の状況を把握するのは難しい。相手側の状況に関する情報のひとつに発話向き情報があり、相手側からこの情報を受け取ることで発話者がどの方向に向かって発話しているかを把握でき、コミュニケーションの円滑化を図ることができる。 A system for exchanging voice information such as a telephone or a voice conference terminal is generally called a voice communication system. In the video conference system, the video is added to the audio information and presented, so that the situation of the place is easily transmitted, but in the audio communication system, it is difficult to grasp the situation of the other party. One of the information on the other party's situation is utterance direction information. By receiving this information from the other party, it is possible to grasp the direction in which the speaker is speaking and to facilitate communication.
このような発話向き情報を推定する従来技術が非特許文献1、2等で開示されており、構成例を図15に示す。この構成例における発話向き推定装置10は、以下のように発話向き情報を推定する。
(i) 発話者1からの発話音声をM本(Mは2以上の整数)のマイクロホン11−1、・・・、11−Mを用いて収音する。収音されたアナログ信号をAD変換部12にて、ディジタル信号vx(t)=[x1(t),・・・, xM(t)]Tへ変換する。ここで、tは離散時間のインデックスを表す。
Conventional techniques for estimating such speech direction information are disclosed in
(i) The voice from the
(ii) 周波数領域変換部13では、複数サンプルからなる上記ディジタル信号の組(フレーム)を入力とし、高速フーリエ変換等により周波数領域の信号VX(ω,n)=[X1(ω,n),・・・, XM(ω,n)]Tへ変換する。ここで、ωは周波数のインデックスを表し、周波数のインデックスの総数をΩとする。また、nはフレームのインデックスを表す。
(iii) 固定ビームフォーマ設計部14では、各発話者位置・発話向き毎に固定ビームフォーマVG(ω,r,θ)=[G1(ω,r,θ),・・・,GM(ω,r,θ)]Tを設計する。Gi(ω,r,θ)は発話者位置r、発話向きθの音源を強調・抑制するためにi番目のマイクロホンの周波数成分xi(ω,n)に掛ける係数である。
(ii) The frequency
(iii) The fixed
設計に際しては、あらかじめ設定された発話者位置・発話向き毎に音源とマイクロホン間の音響伝搬特性VH(ω,r,θ)=[H1(ω,r,θ),・・・,HM(ω,r,θ)]Tをシミュレー
ション値や実測値を用いて求めておく。ここでHi(ω,r,θ)は発話者位置r、発話向き
θの音源と、i番目のマイクロホンとの間の音響伝搬特性を表す。
In designing, acoustic propagation characteristics between a sound source and a microphone VH (ω, r, θ) = [H 1 (ω, r, θ),..., H M for each predetermined speaker position and direction. (ω, r, θ)] T is obtained using simulation values or actual measurement values. Here, H i (ω, r, θ) represents an acoustic propagation characteristic between the sound source at the speaker position r and the speech direction θ and the i-th microphone.
固定ビームフォーマVG(ω,r,θ)は、音響伝搬特性との関係を表す式(1)、(2)を満たす値として設計される。
VH(ω,rT,θT)H・VG(ω,rT,θT)=1 (1)
VH(ω,rU,θU)H・VG(ω,rT,θT)=0 (2)
式(1)、(2)は、発話者位置rT、発話向きθTの出力パワーを強調し、それ以外の発話者位置rU、発話向きθUの出力パワーを抑えるように固定ビームフォーマVG(ω,r,θ)を設計することを示している。
The fixed beamformer VG (ω, r, θ) is designed as a value that satisfies the expressions (1) and (2) representing the relationship with the acoustic propagation characteristics.
VH (ω, r T , θ T ) H · VG (ω, r T , θ T ) = 1 (1)
VH (ω, r U, θ U) H · VG (ω, r T, θ T) = 0 (2)
Expressions (1) and (2) emphasize the output power of the speaker position r T and the speech direction θ T and suppress the output power of the other speaker positions r U and the speech direction θ U. It shows that VG (ω, r, θ) is designed.
(iv) 積和計算部15では、周波数領域の信号VX(ω,n)=[X1(ω,n),・・・, XM(ω,n)]Tと固定ビームフォーマVG(ω,r,θ)=[G1(ω,r,θ),・・・,GM(ω,r,θ)]Tを入力とし、各周波数ω、発話者位置r、発話向きθ毎に各マイクロホンに対応する周波数成分Xi(ω,n)と固定ビームフォーマの係数Gi(ω,r,θ)とを掛け、得られたM個の成分を足し合わせることで出力Y(ω,n,r,θ)を計算する。この計算は、Y(ω,n,r,θ)=VG(ω,r,θ)H・VX(ω,n)を計算することと同義である。
(iv) In the product-
(v) パワー計算部16では、積和計算部15からの出力Y(ω,n,r,θ)からパワー|Y(ω,n,r,θ)|2を計算して出力する。
(vi) 周波数平均化処理部17では、パワー計算部16から出力されたパワー|Y(ω,n,r,θ)|2を周波数で平均化処理し、AY(n,r,θ)を得る。この計算は、F0を平均化処理で用いる周波数のインデックス、|F0|を周波数のインデックスの総数と定義すると、
(v) The
(vi) The frequency averaging processing unit 17 averages the power | Y (ω, n, r, θ) | 2 output from the
を計算することと同義である。なお、F0はΩ≧|F0|を満たす。
(vii) 音源向き選択部18では、各フレーム毎に周波数で平均化処理されたパワーAY(n,r,θ)が最大となる発話者位置r、発話向きθを探査し、パワーAY(n,r,θ)が最大となる発話向きθを、推定された発話向きθout(n)として求める。
Is equivalent to calculating Note that F 0 satisfies Ω ≧ | F 0 |.
(vii) The sound source
従来技術の課題として次の2点が挙げられる。
(i) 任意の位置での発話に対応し、高精度な発話向きの推定を行うには、多数のマイクロホンを必要とし、かつマイクロホンの設置位置にも工夫が必要
従来技術においては、各発話者位置・発話向き毎に設計された固定ビームフォーマの出力のパワー|Y(ω,n,r,θ)|2に差があるほど、高精度に発話向きを推定することができる。しかし、発話者の口から放射される音波のように口の前方に強い指向性を持つ音源を想定すると、図16に示すように多数のマイクロホンで発話者を囲い込むように収音しないと、発話者位置・発話向きによっては固定ビームフォーマの出力のパワーに差が出ず、発話向きの推定誤差が増大する(例えば、非特許文献2の実験ではマイクロホンを64本使用)。そのため、誤差を小さくするには多数のマイクロホンが必要となり装置が大型化し、電話や音声会議端末のような可搬性がある装置に取り付けて利用することが難しい。
The following two points can be cited as problems of the prior art.
(i) To deal with utterances at any position and to estimate the direction of utterance with high accuracy, a large number of microphones are required and the position of the microphones must be devised. As the output power | Y (ω, n, r, θ) | 2 of the fixed beamformer designed for each position and speech direction is different, the speech direction can be estimated with higher accuracy. However, assuming a sound source with a strong directivity in front of the mouth, such as a sound wave radiated from the mouth of the speaker, as shown in FIG. 16, it is necessary to collect sound so as to surround the speaker with a large number of microphones. Depending on the speaker position / speech direction, there is no difference in the output power of the fixed beamformer, and the speech direction estimation error increases (for example, in the experiment of Non-Patent
(ii) 残響時間(直接波到来後、直接波の収音パワーから60dB減衰するまでの時間)
が250msec以上の残響環境下では高い発話方向推定性能が得られない
残響時間が250msec以上の残響環境下においては、強い反射波が多く混合するため音響伝搬特性VH(ω,r,θ)を精度よく設計することが難しい。そのため、固定ビームフォーマの出力に曖昧性が生じ、推定精度が劣化する。例えば、低残響加工されていない実環境の部屋においては、一般に残響時間が250〜500msec程度となるため精度の良い推定が困難である。
(ii) Reverberation time (time from the arrival of the direct wave until 60 dB attenuation from the collected power of the direct wave)
High speech direction estimation performance cannot be obtained in a reverberation environment with a reverberation time of 250 msec or more. In a reverberation environment with a reverberation time of 250 msec or more, the sound propagation characteristics VH (ω, r, θ) are accurate because many strong reflected waves are mixed. It is difficult to design well. Therefore, ambiguity occurs in the output of the fixed beamformer, and the estimation accuracy deteriorates. For example, in an actual environment room that is not subjected to low reverberation processing, reverberation time is generally about 250 to 500 msec, so that accurate estimation is difficult.
本発明の目的は、多数のマイクロホンを発話者を囲い込むように配置する必要が無く、かつ残響時間が250msec以上の残響環境下においても適切に発話向きを推定することが可能な、発話向き推定装置、方法及びプログラムを提供することにある。 An object of the present invention is to estimate the speech direction, which does not require a large number of microphones to be placed so as to surround the speaker, and can appropriately estimate the speech direction even in a reverberant environment with a reverberation time of 250 msec or more. To provide an apparatus, a method, and a program.
本発明の発話向き推定装置は、AD変換部と、周波数領域変換部と、相関行列計算部と、基底行列生成部と、相関行列分解部と、周波数平均化処理部と、正面・横向き判定部とを具備する。AD変換部は、M本(Mは2以上の整数)のマイクロホンで収音したアナログ音声信号を、それぞれディジタル音声信号に変換する。周波数領域変換部は、ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する。相関行列計算部は、各周波数毎に、周波数領域に変換されたそれぞれのディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成して出力する。基底行列生成部は、ディジタル音声信号と話者位置の情報を入力として、D個(Dは2以上の整数)の基底から成る基底行列を生成する。相関行列分解部は、フレーム毎に相関行列と基底行列を入力として、相関行列を基底行列に射影した成分列に分解する。周波数平均化処理部は、成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する。正面・横向き判定部は、周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する。 The speech direction estimation apparatus of the present invention includes an AD conversion unit, a frequency domain conversion unit, a correlation matrix calculation unit, a base matrix generation unit, a correlation matrix decomposition unit, a frequency averaging processing unit, and a front / lateral direction determination unit. It comprises. The AD conversion unit converts analog audio signals collected by M microphones (M is an integer of 2 or more) into digital audio signals. The frequency domain transform unit transforms the digital audio signal from the time domain to the frequency domain in units of frames composed of a plurality of samples. The correlation matrix calculation unit sequentially generates and outputs an M × M correlation matrix representing the correlation between the respective digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames. The base matrix generation unit receives a digital speech signal and speaker position information as input, and generates a base matrix composed of D bases (D is an integer of 2 or more). The correlation matrix decomposition unit inputs a correlation matrix and a base matrix for each frame, and decomposes the correlation matrix into component columns projected onto the base matrix. The frequency averaging processing unit receives the component sequence and outputs a frequency averaged component sequence averaged by frequency for each frame. The front / side orientation determination unit estimates whether or not the direction of the speaker's utterance is the front direction for each frame, using the frequency averaged component sequence as an input.
本発明の発話向き推定装置によれば、多数のマイクロホンを発話者を囲い込むように配置する必要が無く、かつ残響時間が250msec以上の残響環境下においても適切に発話向きを推定することが可能となる。 According to the speech direction estimating apparatus of the present invention, it is not necessary to arrange a large number of microphones so as to surround a speaker, and it is possible to appropriately estimate the speech direction even in a reverberant environment where the reverberation time is 250 msec or more. It becomes.
〔第1実施形態〕
図1に本発明の発話向き推定装置100の機能構成例を、図2にその処理フロー例を示す。発話向き推定装置100は、発話向きがマイクロホンアレイに対し、正面向き、左向きであるか右向きであるかを推定するものである。
[First Embodiment]
FIG. 1 shows a functional configuration example of the speech
発話向き推定装置100は、M本(Mは2以上の整数)のマイクロホン101−1〜101−Mからなるマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102と、固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106と、第2周波数平均化処理部202と、正面・横向き判定部203とを備える。
The utterance
従来技術においては、図16に示すように発話者を囲い込むように多数のマイクロホンを配置する必要があったが、本発明においては、M本のマイクロホン101−1〜101−Mを可能な程度に密集して配置すればよい。このようなマイクロホンアレイ101を構成するマイクロホンの本数は多いことに越したことはないが、以下に説明する本発明の構成によれば2本以上あれば発話向きの推定が可能である。また、配置は平面的でも立体的でも構わない。このように少ない本数のマイクロホンを密集して配置する形態をとることで、電話や音声会議端末のような可搬性がある装置に取り付けて、その周囲の発話者による発話向きを推定することが可能となる。発話者はこのマイクロホンアレイ101の周囲で発話する。図3は7本のマイクロホンからなるマイクロホンアレイ101の周りで話している発話者を上から見たイメージを示したものであり、矢印方向が発話向きである。なお、図3(a)は発話者が各位置で正面向きに発話している様子を、図3(b)は横向きに発話している様子を表している。
In the prior art, as shown in FIG. 16, it was necessary to arrange a large number of microphones so as to surround the speaker. However, in the present invention, M microphones 101-1 to 101-M can be provided. It is sufficient to arrange them closely. Although the number of microphones constituting such a
AD変換部12は、M本のマイクロホン101−1〜101−Mで収音した発話者1が発話したアナログ音声信号を、それぞれディジタル音声信号x1(t) 、・・・、xM(t)に
変換する(S1)。ここで、tは離散時間のインデックスを表す。
The
周波数領域変換部13は、複数の離散時間サンプルからなる上記ディジタル音声信号の組(フレーム)を入力とし、高速フーリエ変換等により周波数領域のディジタル音声信号X1(ω,n)、・・・、XM(ω,n)に変換して出力する(S2)。ここで、nはフレームのインデックスを表し、ωは周波数のインデックスを表す。なお、周波数のインデックスの総数はΩとする。
The frequency
相関行列計算部102は、周波数領域のディジタル音声信号X1(ω,n) 、・・・、XM(ω,n)を入力とし、各信号間の相関を表すM×Mの相関行列R(ω,k)を、各周波数ω毎に式(3)により順次生成し出力する(S3)。
R(ω,k)=E[VX(ω,n)・VXH(ω,n)] (3)
The correlation
R (ω, k) = E [VX (ω, n) · VX H (ω, n)] (3)
ここで、VX(ω,n)=[X1(ω,n)、・・・、XM(ω,n)]Tなお、Hは共役転置を表し、Eは、VX(ω,n)・VX(ω,n)Hを各フレームについて計算した上で、平均化処理等によりLフレーム毎の期待値を演算をする演算子である。つまり、相関行列はLフレームに1回の割合で順次出力され、kはこの相関行列の出力のインデックスを表す。また、LはM以上の整数とすることが望ましい。 Here, VX (ω, n) = [X 1 (ω, n),..., X M (ω, n)] T where H represents a conjugate transpose and E represents VX (ω, n) An operator that calculates an expected value for each L frame by averaging processing after calculating VX (ω, n) H for each frame. That is, the correlation matrix is sequentially output at a rate of once per L frame, and k represents an output index of the correlation matrix. L is preferably an integer greater than or equal to M.
固有値分解部201は、相関行列R(ω,k)を入力とし、まず、式(4)を満たすようにM個の固有値λ1(ω,k)、・・・、λM(ω,k)それぞれの二乗を対角要素とする対角行列である固有値行列Λ(ω,k)と、M個の固有ベクトルvv1(ω,k)、・・・、vvM(ω,k)を要素とする固有ベクトル行列V(ω,k)とに固有値分解法によって分解する。
R(ω,k)=V(ω,k)・Λ(ω,k)・VH(ω,k) (4)
ここで、Λ(ω,k)=diag[λ1 2(ω,k)、・・・、λM 2(ω,k)]
λ1(ω,k)≧λ2(ω,k)≧・・・≧λM(ω,k)
V(ω,k)=[vv1(ω,k)、・・・、vvM(ω,k)]T
vvi(ω,k)=[vi,1(ω,k)、・・・、vi,M(ω,k)]
なお、diag[・]は[・]内の成分を対角行列の要素とする演算子である。
そして、最大の固有値である第1固有値λ1(ω,k)に対応する第1固有ベクトルvv1(ω,
k)を出力する(S4)。
The
R (ω, k) = V (ω, k) · Λ (ω, k) · V H (ω, k) (4)
Where Λ (ω, k) = diag [λ 1 2 (ω, k),..., Λ M 2 (ω, k)]
λ 1 (ω, k) ≧ λ 2 (ω, k) ≧ ・ ・ ・ ≧ λ M (ω, k)
V (ω, k) = [vv 1 (ω, k),..., Vv M (ω, k)] T
vv i (ω, k) = [v i, 1 (ω, k),..., v i, M (ω, k)]
Note that diag [•] is an operator having the components in [•] as elements of a diagonal matrix.
Then, the first eigenvector vv 1 (ω, k) corresponding to the first eigenvalue λ 1 (ω, k) which is the maximum eigenvalue.
k) is output (S4).
第1固有ベクトルパワー計算部104は、第1固有ベクトルvv1(ω,k)を入力とし、第1固有ベクトルvv1(ω,k)を構成するv1,1(ω,k)、・・・、v1,M(ω,k)のM個の要素について、それぞれ式(5)によりパワーを計算してM個のパワー要素pv1,1(ω,k)、・・・
、pv1,M(ω,k)を出力する(S5)。
pv1,i(ω,k)=|v1,i(ω,k)| (5)
第1周波数平均化処理部105は、各周波数ω毎に生成されたM個のパワー要素pv1,1(ω,k)、・・・、pv1,M(ω,k)について、それぞれ式(6)により平均値を計算してM個の平均化パワー要素apv1,1(k)、・・・、apv1,M(k)を出力する(S6)。
The first eigenvector
, Pv 1, M (ω, k) is output (S5).
pv 1, i (ω, k) = | v 1, i (ω, k) | (5)
The first frequency averaging
なお、F1は平均化に用いる周波数のインデックス、|F1|は周波数のインデックスの総
数であり、F1はΩ≧|F1|を満たすように適宜設定する。
左右向き判定部106は、M個の平均化パワー要素apv1,1(k)、・・・、apv1,M(k)とを入力とし、左向きに発話したか右向きに発話したかを判定して結果を出力する(S7)。
F 1 is an index of frequencies used for averaging, | F 1 | is a total number of frequency indexes, and F 1 is appropriately set so as to satisfy Ω ≧ | F 1 |.
The left / right
左右向きの判定は、マイクロホンアレイ101を構成するM本のマイクロホンのうち、ある2本のマイクロホン101−α、101−βに対応する2個の平均化パワー要素apv1,α(k)、apv1,β(k)の比をとり、それを所定のしきい値thr1と比較することにより行う。左右向きの判定イメージを図4に例示する。この例では、図4(a)に示すマイクロホンαとマイクロホンβとの中間点に向いて発話された場合をapv1,α(k)/apv1,β(k)=thr1とし、この向きを基準とした左右方向の発話向きをapv1,α(k)/apv1,β(k)とthr1との大小関係により判定する。具体的には、左向きになればなるほどapv1,β(k)がapv1,α(k)に比べて減衰する割合が大きくなるため、apv1,α(k)/apv1,β(k)>thr1の時には左向きであると判定することができ(図4(b))、右向きになればなるほどapv1,α(k)がapv1,β(k)に比べて減衰する割合が大きくなるため、apv1,α(k)/apv1,β(k)<thr1の時には右向きであると判定することができる(図4(c))。なお、2本のマイクロホンは、平均化パワー要素apv1,α(k)、apv1,β(k)の値に差が生じやすいよう、発話者の位置に対して最も左右間隔の広い2本を選ぶのが望ましい。
The left-right orientation determination is performed by using two averaged power elements apv 1, α (k), apv corresponding to two microphones 101-α and 101-β among the M microphones constituting the
このような構成で左右方向の発話向きを判定することができる理論的背景を説明する。
図5は音声信号の伝搬特性を時間領域で示したものである。伝搬特性は、直接波、初期残響、後部残響の3つに大きく分けられるが、直接波、初期残響が観測される時間帯においては、複数本のマイクロホンで構成されたマイクロホンアレイに対して方向性を持った波が混入することが知られている。特に、初期残響時間帯(直接波到来後、直接波の収音パワーから10dB減衰するまでの時間)においては方向性を持った強い反射波が混在するが、この反射波のパワーは発話向きにより変化する。具体的には、発話向きが正面方向であるほど直接波のパワーが大きくなるため、反射波のパワーは小さくなり、また、横方向であるほど直接波のパワーが小さくなるため、その分反射波のパワーが大きくなる。本発明はこのような性質を利用して発話向きを推定する。
A theoretical background capable of determining the left-right direction of speech with such a configuration will be described.
FIG. 5 shows the propagation characteristics of the audio signal in the time domain. Propagation characteristics can be broadly divided into three types: direct wave, initial reverberation, and rear reverberation. In the time zone in which direct wave and initial reverberation are observed, the directivity with respect to the microphone array composed of a plurality of microphones. It is known that waves with In particular, in the initial reverberation time zone (after the arrival of the direct wave, the time from the direct wave pickup power to the attenuation of 10 dB), a strong reflected wave with directionality is mixed, but the power of this reflected wave depends on the direction of speech. Change. Specifically, since the direct wave power increases as the utterance direction is the front direction, the reflected wave power decreases, and the direct wave power decreases as it is in the horizontal direction. The power of will increase. The present invention uses such a property to estimate the speech direction.
これについて以下、本発明の構成に則して説明する。図6は、正面向き、横向きの発話
状態がどのように相関行列R(ω,k)の各固有値λi(ω,k)に影響するかを示したもので
ある。ここでは3本のマイクロホンでマイクロホンアレイを構成した場合を例示する。正
面向きの場合、マイクロホンアレイには直接波が多く到達し、反射波の到達割合は相対的
に低いため、図6(a)に示すように、直接波を表現する基底ベクトルが、反射波を表現する基底ベクトル群に比べて大きなパワーを持つ。この時、第1固有値λ1(ω,k)は第2固有値λ2(ω,k)、第3固有値λ3(ω,k)と比べ顕著に大きな値を示す。一方、横向きの場合、マイクロホンアレイに到達する直接波は減少するため、その分反射波が多く到達する。そのため、図6(b)に示すように、直接波を表現する基底ベクトルのパワーが減少し、反射波を表現する基底ベクトル群のパワーが増加する。そして、この時には第1固有値λ1(ω,k)は正面向きの場合より小さくなり、逆に第2固有値λ2(ω,k)、第3固有値λ3(ω,k)は正面向きの場合より大きくなる。正面向きの場合と横向きの場合とで各固有値に生じる差異のイメージを図7に示す。
This will be described below in accordance with the configuration of the present invention. FIG. 6 shows how the utterance state in front and side affects each eigenvalue λ i (ω, k) of the correlation matrix R (ω, k). Here, a case where a microphone array is configured by three microphones is illustrated. When facing the front, many direct waves reach the microphone array, and the arrival rate of the reflected waves is relatively low. Therefore, as shown in FIG. Compared to the basis vector group to be expressed, it has a large power. At this time, the first eigenvalue λ 1 (ω, k) is significantly larger than the second eigenvalue λ 2 (ω, k) and the third eigenvalue λ 3 (ω, k). On the other hand, in the case of the horizontal orientation, the direct waves that reach the microphone array are reduced, so that more reflected waves arrive accordingly. For this reason, as shown in FIG. 6B, the power of the basis vectors expressing the direct wave decreases, and the power of the basis vector group expressing the reflected wave increases. At this time, the first eigenvalue λ 1 (ω, k) is smaller than that in the front direction, and conversely, the second eigenvalue λ 2 (ω, k) and the third eigenvalue λ 3 (ω, k) are in the front direction. Larger than the case. FIG. 7 shows an image of the difference that occurs in each eigenvalue between the case of facing forward and the case of facing sideways.
以上のことから、直接波を表現する基底ベクトルのパワーは第1固有値に顕著に反映さ
れることがわかる。そしてそうであれば、第1固有値に対応する第1固有ベクトルの、M
本のマイクロホンに対応する各パワー要素の値は、直接波がM本のマイクロホンのそれぞ
れにどの程度の強さで届いているかの尺度となると考えることができる。そして、直接波
が各マイクロホンに届くパワーは発話向きによって変化する。そこで上記のように、基準
とする発話向きにおける任意の2本のマイクロホンのパワー要素の比をしきい値(thr1)
とし、そのしきい値とある発話向きの時の2本のマイクロホンのパワー要素の値の比とを
比較することで、その大小関係から、基準とする発話向きに対して左向きに発話したか右
向きに発話したかを判定することができる。
固有値分解部201は、更に上記した第1固有値λ1(ω,k)を、式(7)により正規化
して第1正規化固有値nλ1(ω,k)を出力する(S8)。
From the above, it can be seen that the power of the basis vector expressing the direct wave is significantly reflected in the first eigenvalue. And if so, M of the first eigenvector corresponding to the first eigenvalue
The value of each power element corresponding to a single microphone can be considered as a measure of how strong a direct wave reaches each of the M microphones. The power at which direct waves reach each microphone varies depending on the direction of speech. Therefore, as described above, the ratio of the power elements of any two microphones in the reference utterance direction is the threshold (thr1).
By comparing the threshold value and the ratio of the values of the power elements of the two microphones for a certain utterance direction, the utterance is uttered to the left or the right direction with respect to the reference utterance direction. It is possible to determine whether you have spoken.
The
第2周波数平均化処理部202は、各周波数ω毎に得られた第1正規化固有値nλ1(ω,
k)について式(8)により平均値を計算して、第1平均化固有値aλ1(k)を出力する(S9)。
The second frequency averaging
The average value of k) is calculated according to the equation (8), and the first averaged eigenvalue aλ 1 (k) is output (S9).
なお、F2は平均化に用いる周波数のインデックス、|F2|は周波数のインデックスの総
数であり、F2はΩ≧|F2|を満たすように適宜設定する。
F 2 is an index of frequencies used for averaging, | F 2 | is the total number of frequency indexes, and F 2 is appropriately set so as to satisfy Ω ≧ | F 2 |.
正面・横向き判定部203は、左右向き判定部106での判定結果と第1平均化固有値aλ1(k)とを入力とし、第1平均化固有値aλ1(k)を所定のしきい値thr2と比較することにより、aλ1(k)<thr2であれば発話者が上記マイクロホンアレイに対し横向きと判定し、そうでなければ正面向きと判定する。そして、横向きと判定した場合には左右向き判定部106での判定結果をそのまま出力し、そうでなければ正面向きであるとの判定結果を出力する(S10)。正面・横向き判定イメージを図10に例示する。ここで、thr2は環境や話者の位置によって任意に設定してよい。なお、第1平均化固有値aλ1(k)はフレームグループk毎に得られることから、判定結果もフレームグループk毎に出力される。
The front / horizontal
このような構成で発話向きが正面向きであるか横向きであるかを判定することができる理論的背景を説明する。直接波を表現する基底ベクトルのパワーは第1固有値に顕著に反映される。具体的には正面向きの場合には直接波を表現する基底ベクトルのパワーが大きい値を示すとともに第1固有値も大きな値を示す一方、横向きの場合には直接波を表現する基底ベクトルのパワーは正面向きの場合より小さくなり、第1固有値も小さくなる。そこで、第1固有値を正面・横向きの判定パラメータとして用いることで、第1固有値があるしきい値より大きければ正面向き、小さければ横向きであると適切に判定することができる。 A theoretical background that can determine whether the speech direction is the front direction or the horizontal direction with such a configuration will be described. The power of the basis vector representing the direct wave is significantly reflected in the first eigenvalue. Specifically, in the case of the front direction, the power of the base vector expressing the direct wave shows a large value and the first eigenvalue also shows a large value. The first eigenvalue is also smaller than when facing the front. Therefore, by using the first eigenvalue as a front / side determination parameter, it is possible to appropriately determine that the first eigenvalue is front-facing if it is larger than a certain threshold value and that it is lateral if it is smaller.
このように、第1実施形態の発話向き推定装置によれば、発話向きについて正面向き、
左向き、右向きのいずれであるかを判定することが可能となるため、ネットワークを介した相手方とのコミュニケーションをより円滑に行うことが可能となる。
第1実施形態では、固有値分解法によって空間相関行列R(ω,k)を分解し、発話者向きを推定する例を説明したが、他の方法も考えられる次にその代替手法について説明する。
Thus, according to the utterance direction estimation apparatus of the first embodiment, the utterance direction is the front direction,
Since it is possible to determine whether it is facing left or right, it is possible to more smoothly communicate with the other party via the network.
In the first embodiment, the example in which the spatial correlation matrix R (ω, k) is decomposed by the eigenvalue decomposition method and the direction of the speaker is estimated has been described. Next, an alternative method will be described in which other methods can be considered.
〔第2実施形態〕
図8に第2実施形態の発話者向き推定装置200の機能構成例を、図9にその処理フローを示す。発話向き推定装置200は、M本(Mは2以上の整数)のマイクロホン101−1〜101−Mからなるマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102と、発話位置推定部405と、基底行列生成部400と、相関行列分解部410と、周波数平均化処理部420と、正面・横向き生成部430とを備える。このうちマイクロホンアレイ101と、AD変換部12と、周波数領域変換部13と、相関行列計算部102とは、第1実施形態にて説明済みのものと同じであるので、この部分の機能・処理の説明は省略する。
[Second Embodiment]
FIG. 8 shows a functional configuration example of the speaker orientation estimating apparatus 200 according to the second embodiment, and FIG. 9 shows a processing flow thereof. The utterance direction estimation apparatus 200 includes a
発話者位置推定部405は、発話者の位置rを推定する。発話者の位置rを推定する方法は、複数考えられ、例えば、AD変換部12が出力するマイクロホン出力の時間差から推定しても良いし、図示しない撮像装置から画像情報を入手し、画像を分析して推定しても良い。また、発話者の位置rの情報を外部から得るようにしてもよい。
The speaker
〔基底行列生成部〕
基底行列生成部400は、その位置情報rと、周波数領域変換部13の出力する各マイクロホンの周波数領域の信号XM(ω,n)を入力として、行列分解のための軸である基底数Dの基底行列を生成する(S400)。ここで、基底数Dは、特にマイクロホン数Mと同じにする必要はなく、2以上の整数である。以下、基底行列UU(ω,k)の生成方法を説明する。
[Base matrix generator]
The base
まず、一番目の基底uu1(ω,k)=[uu11(ω,k),…,uu1M(ω,k)]を各周波数ω、フレームk毎に設計する。uu1(ω,k)の設計にはいくつかの方法が考えられる。その内の2種類の方法について説明する。 First, the first basis uu 1 (ω, k) = [uu 11 (ω, k),..., Uu 1M (ω, k)] is designed for each frequency ω and frame k. Several methods are conceivable for designing uu 1 (ω, k). Two types of methods will be described.
その一つとして直接音経路の伝達特性を模擬する方法が考えられる。その方法は、音源位置rにある音源とM本のマイクロホン間の伝達特性の周波数表現H^H(ω,r)=[H^H1(ω,r),…,H^HM(ω,r)]を用意する。ここで、H^H1〜H^HMは音源と各マイクロホン間の伝達特性を表す伝達関数である。各フレームk毎に、発話者位置推定部405が推定した発話者の位置rを入力として、各周波数ω毎にuu′1(ω,r)=[H^H1(ω,r),…,H^HM(ω,r)]とする。ここで、伝達関数は予め用意された実測値を用いても良いし、シミュレーションで計算した値を用いても良い。最後に式(9)のように正規化することでuu1(ω,k)を得る。
One possible method is to simulate the transfer characteristics of the direct sound path. The method uses a frequency expression H ^ H (ω, r) = [H ^ H 1 (ω, r),..., H ^ H M (ω , R)]. Here, H ^ H 1 ~H ^ H M is the transfer function representing the transmission characteristic between the sound sources and each microphone. For each frame k, the speaker's position r estimated by the speaker
また、他にエリア強調フィルタを用いる方法も考えられる。その方法は、各フレームk毎に発話者位置推定部405が推定した位置情報rを得て、位置rにある音を強調するフィルタu〜u1(ω,k)=[u〜u11(ω,k),…,u〜u1M(ω,k)]Tを各フレームk、周波数ω毎に設計する。エリア強調フィルタu〜u1(ω,k)は、例えば式(10)を計算することで得られる。
Another method using an area enhancement filter is also conceivable. The method obtains position information r estimated by the speaker
ここで、h〜h11(ω)=[h〜h111(ω),…,h〜h11M(ω)]Tは強調したいエリアの代表的な伝達特性、h〜h1q(ω)=[h〜h1q1(ω),…,h〜h1qM(ω)]T(qは2以上L以下の整数)は強調したくないエリアの代表的な伝達特性であり、L−1個用意する。Lは2以上の整数である。また、L=Mでない場合、逆行列演算は正則ではないので、擬似逆行列演算となる。最後に式(11)のように正規化することでuu1(ω,k)を得る。 Here, h to h 11 (ω) = [h to h 111 (ω),..., H to h 11M (ω)] T is a typical transfer characteristic of an area to be emphasized, and h to h 1q (ω) = [h to h 1q1 (ω),..., h to h 1qM (ω)] T (q is an integer of 2 or more and L or less) is a typical transfer characteristic of an area that is not desired to be emphasized, and L−1 are prepared. To do. L is an integer of 2 or more. Further, when L = M is not satisfied, the inverse matrix operation is not regular, and thus becomes a pseudo inverse matrix operation. Finally, uu 1 (ω, k) is obtained by normalization as in equation (11).
次に、上記したどちらかの方法で求めた一番目の基底uu1(ω,k)を基に基底数Dのuu2(ω,k),…,uuD(ω,k)を算出し、基底行列UU(ω,k)を生成する。この基底行列UU(ω,k)を生成する方法を次に説明する。
まず、正規直交基底で基底行列UU(ω,k)を生成する方法が考えられる。その方法の一つは、ベクトルuu1(ω,k)に直交な基底を、例えばグラムシュミット法で生成する。式(12)と式(13)の計算をD−1回繰り返すことで、D−1個のベクトルuu2(ω,k),…,uuD(ω,k)を生成できる。
Next, uu 2 (ω, k),..., Uu D (ω, k) of the basis number D is calculated based on the first basis uu 1 (ω, k) obtained by either of the above methods. Then, a basis matrix UU (ω, k) is generated. A method for generating this basis matrix UU (ω, k) will now be described.
First, a method of generating a basis matrix UU (ω, k) with orthonormal basis is conceivable. One of the methods generates a base orthogonal to the vector uu 1 (ω, k) by, for example, the Gram Schmitt method. It is possible to generate D−1 vectors uu 2 (ω, k),..., Uu D (ω, k) by repeating the calculations of Expression (12) and Expression (13) D−1 times.
ここでχn(ω,k)はn番目の基底uun(ω,k)の初期値で、‖uun(ω,k)‖≠0となるようにランダムに与えればよい。また、uu2(ω,k)から順に帰納的にuuM(ω,k)まで生成する。
また、エリア強調フィルタを用いて基底行列UU(ω,k)を生成することもできる。その方法は、既に生成された一番目の基底uu1(ω,k)で強調するエリアとは別のエリアを強調するフィルタを生成し、式(14)の計算で基底uu2(ω,k),…,uuD(ω,k)を求める。
Here, χ n (ω, k) is an initial value of the n-th basis uu n (ω, k), and may be given randomly so that ‖u n (ω, k) ‖ ≠ 0. In addition, uu 2 (ω, k) is sequentially generated up to uu M (ω, k).
In addition, the base matrix UU (ω, k) can be generated using an area enhancement filter. The method generates a filter that emphasizes an area different from the area emphasized by the first basis uu 1 (ω, k) already generated, and calculates the basis uu 2 (ω, k) by the calculation of Expression (14). ,..., Uu D (ω, k) is obtained.
ここで、h〜hn1(ω)=[h〜hn11(ω),…,h〜hn1M(ω)]Tは、n番目の基底が強調したいエリアの代表的な伝達特性、h〜hnq(ω)=[h〜hnq1(ω),…,h〜hnqM(ω)]T(qは2以上L以下の整数)はn番目の基底が強調したくないエリアの代表的な伝達特性であり、L−1個用意する。Lは2以上の整数である。また、L=Mでない場合、逆行列演算は正則ではないので、擬似逆行列演算となる。そして、式(15)のように正規化することで、uun(ω,k)を得る。 Here, h to h n1 (ω) = [h to h n11 (ω),..., H to h n1M (ω)] T is a typical transfer characteristic of an area to be emphasized by the nth base, h to h nq (ω) = [h to h nq1 (ω),..., h to h nqM (ω)] T (q is an integer of 2 or more and L or less) is a representative area where the nth base is not emphasized L-1 are prepared. L is an integer of 2 or more. Further, when L = M is not satisfied, the inverse matrix operation is not regular, and thus becomes a pseudo inverse matrix operation. Then, uu n (ω, k) is obtained by normalizing as in Expression (15).
〔相関行列分解部〕
相関行列分解部410は、各周波数ω、フレームk毎に相関行列R(ω,k)と基底行列UU(ω,k)=[uu1(ω,k),…,uuD(ω,k)]Tを入力とし、成分列L(ω,k)=[L1(ω,k),…,LD(ω,k)]を出力する(S410)。
成分列L(ω,k)は、相関行列R(ω,k)を基底行列UU(ω,k)に射影することで得られる正面・横向き判定に有効な特徴量である。射影とは、相関行列R(ω,k)と基底行列UU(ω,k)の類似度合いを計算することである。つまり、式(16)の計算によって成分列L(ω,k)を構成する要素L1(ω,k),…,LD(ω,k)を得る。
[Correlation matrix decomposition unit]
Correlation
The component sequence L (ω, k) is a feature quantity effective for front / side determination obtained by projecting the correlation matrix R (ω, k) onto the base matrix UU (ω, k). Projection is to calculate the degree of similarity between the correlation matrix R (ω, k) and the base matrix UU (ω, k). That is, the elements L 1 (ω, k),..., L D (ω, k) constituting the component sequence L (ω, k) are obtained by the calculation of Expression (16).
ここでHは複素共役転置を意味する。
〔周波数平均化処理部〕
周波数平均化処理部420は、相関行列分解部410から出力される成分列L(ω,k)を入力とし、各フレームk毎に周波数ωで平均化された周波数平均化成分列L−(k)=[L1 −(k),…,LD −(k)]を出力する(S420)。周波数平均化成分列L−(k)の各要素は、式(17)で計算される。
Here, H means complex conjugate transpose.
[Frequency averaging processing section]
The frequency
ここで、|F3|は周波数平均化処理で用いる周波数インデックスの総数である。
正面・横向き判定部430は、周波数平均化された周波数平均化成分列L−(k)を入力として、各フレームk毎に話者が「正面向き」の状態にあるのか、それとも「横向き」の状態にあるのかを判定して出力する(S430)。正面・横向き判定部430は、周波数平均化成分列L−(k)を入力とする点のみが、第1平均化固有値aλ1(k)を入力とする第1実施形態の正面・横向き判定部203と異なる。処理や理論的な背景は第1実施形態の正面・横向き判定部203と同じである。
Here, | F 3 | is the total number of frequency indexes used in the frequency averaging process.
Front-
以上説明したように、固有値分解法を用いた空間相関行列R(ω,k)を分解する方法によらなくても発話者向きを推定することが可能である。なお、第2実施形態は話者が「正面向き」か「横向きか」しか判定しない例であるが、更に左右向きも判定することも可能である。次に左右向きを判定できるようにした第3実施形態を説明する。 As described above, it is possible to estimate the speaker direction without using the method of decomposing the spatial correlation matrix R (ω, k) using the eigenvalue decomposition method. The second embodiment is an example in which the speaker is only determined to be “front-facing” or “landscape-oriented”, but it is also possible to determine the left-right orientation. Next, a description will be given of a third embodiment in which the horizontal direction can be determined.
〔第3実施形態〕
図11に第3実施形態の発話者向き推定装置300の機能構成例を示す。発話向き推定装置300は、第2実施形態の発話者向き推定装置200の機能構成に、第1実施形態の発話者向き推定装置100の固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106との機能構成を追加したものである。また、正面・横向き判定部110が、左右向き判定結果を入力として話者の発話方向の左右方向も判定する点で発話者向き推定装置200と異なる。
[Third Embodiment]
FIG. 11 shows a functional configuration example of the speaker
なお、固有値分解部201と、第1固有ベクトルパワー計算部104と、第1周波数平均化処理部105と、左右向き判定部106については、説明済みであるが、第3実施形態の構成を明瞭にする目的で、各部の機能の説明のみを再度行い、その処理フローを参照した説明は省略する。
Although the
固有値分解部201は、相関行列R(ω,k)を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する。
The
第1固有ベクトルパワー計算部104は、第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する。第1周波数平均化処理部105は、各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する。左右向き判定部106は、M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する。
The first eigenvector
正面・横向き判定部110は、左右向き判定部106の出力する左右向き判定結果を入力として、フレーム毎に話者の発話方向が正面方向であるか否かと、左向き又は右向きに発話したかを判定する。
The front / horizontal
上記の各実施形態の発話向き推定装置の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この場合、処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
また、上述の各種処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
When the configuration of the utterance direction estimation device of each of the above embodiments is realized by a computer, the processing contents of the functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer. In this case, at least a part of the processing content may be realized by hardware.
Further, the various processes described above are not only executed in time series according to the description, but may be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. In addition, it can change suitably in the range which does not deviate from the meaning of this invention.
〔効果の検証〕
図12(a)に示す収音環境において、図12(b)に示す条件の下で、本発明の効果の検証を行った。なお、発話向きの定義は図12(c)に示すとおりである。
[Verification of effects]
In the sound collection environment shown in FIG. 12 (a), the effect of the present invention was verified under the conditions shown in FIG. 12 (b). The definition of the utterance direction is as shown in FIG.
図13に各発話向きと第1〜第7平均化固有値aλi(k)との関係を示す。ここで、第2〜第7平均化固有値は第1平均化固有値と同様な方法で求めたものである。また、図13(a)は残響時間が250msecの場合、図13(b)は残響時間が400msecの場合である。いずれの残響時間の場合も、第1平均化固有値は発話向きによって大きく異なるが、第2〜第7平均化固有値は発話向きによる差が小さい。また、第1固有値は0°(正面向き)の時が最も大きく、±90°(横向き)の時が最も小さい。この検証結果より、第2実施形態に示した第1平均化固有値により正面・横向きを判定する本発明の構成が妥当かつ有効であることがわかる。 FIG. 13 shows the relationship between each utterance direction and the first to seventh averaged eigenvalues aλ i (k). Here, the second to seventh averaged eigenvalues are obtained by the same method as the first averaged eigenvalue. FIG. 13A shows the case where the reverberation time is 250 msec, and FIG. 13B shows the case where the reverberation time is 400 msec. In any reverberation time, the first averaged eigenvalue varies greatly depending on the speech direction, but the second to seventh averaged eigenvalues have a small difference depending on the speech direction. The first eigenvalue is the largest when it is 0 ° (frontward) and the smallest when it is ± 90 ° (laterally). From this verification result, it can be seen that the configuration of the present invention for determining the front / sideways orientation based on the first averaged eigenvalue shown in the second embodiment is valid and effective.
また、図14に第1実施形態の構成により推定した左右方向の発話向きと実際の発話向きとの比較を示す。図14(a)は残響時間が250msecの場合、図14(b)は残響時間が400msecの場合である。いずれの残響時間の場合も、75%以上の正解率が得られた。この検証結果より、第1実施形態に示した第1固有ベクトルの2つのパワー要素から左右向きを判定する本発明の構成が妥当かつ有効であることがわかる。 FIG. 14 shows a comparison between the utterance direction in the left-right direction estimated by the configuration of the first embodiment and the actual utterance direction. FIG. 14A shows the case where the reverberation time is 250 msec, and FIG. 14B shows the case where the reverberation time is 400 msec. In any reverberation time, a correct answer rate of 75% or more was obtained. From this verification result, it can be seen that the configuration of the present invention for determining the left-right direction from the two power elements of the first eigenvector shown in the first embodiment is valid and effective.
〔サービス適用例〕
図15は音声会議端末に本発明を組み込んだサービスの構成例である。会議場Aと会議場Bとをネットワークを通じて音声端末で繋がれている状況を想定する。音声会議端末に取り付けられたマイクロホンで収音した音声信号から発話向き情報を抽出し、音声情報と共に相手側へ伝送する。相手側にて、発話向き情報を視覚情報として提示することで、音声情報だけでは伝わりにくかった場の状況を伝達することができる。
[Service application example]
FIG. 15 is a structural example of a service in which the present invention is incorporated into an audio conference terminal. Assume that the conference hall A and the conference hall B are connected by a voice terminal through a network. Speech direction information is extracted from a voice signal picked up by a microphone attached to the voice conference terminal, and transmitted to the other party along with the voice information. By presenting the utterance direction information as visual information on the other party side, it is possible to convey the situation of the place that is difficult to convey only with the voice information.
また、会議でのやりとりの様子を映像や音声を用いて記録する議事録システムにも発話者向き推定技術を応用できる。発話者向き推定技術によって、収録した音声や映像に誰が誰に向かって話したかというタグを付けることができるので、議事録の整理作業に役立つ。また、画像で顔向きを検出して行うサービス、例えば、監視カメラやインターフォン等で用いられる監視・防犯目的のサービスや、ディジタルサイネージ(電子看板)で広告に注目しているか否かを判定するサービス等も、音声信号出力に置き換えることが可能である。 In addition, the speaker orientation estimation technology can be applied to a minutes system that records the state of communication in a conference using video and audio. The speaker orientation estimation technology can tag the recorded voice and video as to who spoke to whom, which is useful for organizing minutes. In addition, services performed by detecting face orientation in images, for example, surveillance / crime prevention services used with surveillance cameras and intercoms, and services that determine whether or not attention is paid to advertisements using digital signage (digital signage) Etc. can also be replaced with an audio signal output.
Claims (9)
上記ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する周波数領域変換部と、
各周波数毎に、周波数領域に変換されたそれぞれの上記ディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成し出力する相関行列計算部と、
上記ディジタル音声信号と話者位置の推定情報を入力として、D個(Dは2以上の整数)の基底から成る基底行列を生成する基底行列生成部と、
フレーム毎に上記相関行列と上記基底行列を入力として、上記相関行列を上記基底行列に射影させて正面・横向き判定に有効な特徴量である成分列を得る相関行列分解部と、
上記成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する周波数平均化処理部と、
上記周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する正面・横向き判定部と、
を具備する発話向き推定装置。 An AD converter for converting analog audio signals picked up by M microphones (M is an integer of 2 or more) into digital audio signals;
A frequency domain transforming unit that transforms the digital audio signal from a time domain to a frequency domain in units of frames of a plurality of samples;
A correlation matrix calculation unit that sequentially generates and outputs an M × M correlation matrix representing the correlation between the digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames;
A base matrix generation unit that generates a base matrix composed of D (D is an integer of 2 or more) bases by using the digital speech signal and speaker position estimation information as inputs;
A correlation matrix decomposing unit that receives the correlation matrix and the base matrix for each frame, and projects the correlation matrix onto the base matrix to obtain a component sequence that is an effective feature quantity for front / lateral determination;
With the above component sequence as an input, a frequency averaging processing unit that outputs a frequency averaged component sequence averaged by frequency for each frame;
Using the frequency averaged component sequence as an input, a front / side orientation determination unit that estimates whether the direction of the speaker's utterance is the front direction for each frame, and
An utterance direction estimation device comprising:
更に、
上記相関行列を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する固有値分解部と、
上記第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する第1固有ベクトルパワー計算部と、
各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する第1周波数平均化処理部と、
上記M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する左右向き判定部と、
を具備し、
上記正面・横向き判定部は、上記左右向き判定結果を入力としてフレーム毎に話者の発話の向きが正面方向であるか否か及び、左向きに発話したか右向きに発話したかを判定するものであることを特徴とする発話向き推定装置。 In the utterance direction estimation apparatus according to claim 1,
Furthermore,
The correlation matrix is decomposed into an eigenvalue matrix that is a diagonal matrix having the squares of the M eigenvalues as diagonal elements, and an eigenvector matrix composed of M eigenvectors corresponding to the eigenvalues, and the maximum eigenvalue is obtained. An eigenvalue decomposition unit that outputs a corresponding eigenvector (hereinafter referred to as “first eigenvector”);
A first eigenvector power calculator that calculates power for each of M elements constituting the first eigenvector and outputs M power elements;
A first frequency averaging processor that calculates an average value for each of the M power elements generated for each frequency and outputs M averaged power elements;
Of the M averaged power elements, the ratio of two averaged power elements corresponding to any two microphones is taken and compared with a predetermined threshold value so that the speaker can A left-right orientation determination unit that determines whether the speech is directed leftward or rightward with respect to the array and outputs a left-right orientation determination result;
Comprising
The front / side orientation determination unit receives the left / right orientation determination result as input and determines whether or not the direction of the speaker's utterance is the front direction for each frame and whether the utterance is uttered leftward or rightward. An utterance direction estimation device characterized by being.
上記基底行列生成部は、上記基底行列の1番目の基底を、直接音経路の伝達特性を模擬する方法で求め、その第1番目の基底を基に互いに直交する複数の基底ベクトルを求め、上記相関行列を分解する基底行列を生成することを特徴とする発話向き推定装置。 In the utterance direction estimation apparatus according to claim 1 or 2,
The basis matrix generation unit obtains a first basis of the basis matrix by a method of simulating transfer characteristics of a direct sound path, obtains a plurality of basis vectors orthogonal to each other based on the first basis, An utterance direction estimation apparatus characterized by generating a base matrix for decomposing a correlation matrix.
上記基底行列生成部は、上記基底行列の1番目の基底を、エリア強調フィルタで求め、その第1番目の基底とは別のエリアの音を強調するようなフィルタを設け、上記相関行列を分解する上記フィルタを用いて基底行列を生成することを特徴とする発話向き推定装置。 In the utterance direction estimation apparatus according to claim 1 or 2,
The basis matrix generation unit obtains a first basis of the basis matrix by an area enhancement filter, and provides a filter for enhancing sounds in an area different from the first basis, and decomposes the correlation matrix An utterance direction estimation apparatus characterized by generating a base matrix using the filter.
周波数領域変換部が、上記ディジタル音声信号を、複数サンプルからなるフレーム単位で時間領域から周波数領域に変換する周波数領域変換過程と、
相関行列計算部が、各周波数毎に、周波数領域に変換されたそれぞれの上記ディジタル音声信号間の相関を表すM×Mの相関行列を複数フレーム毎の期待値として順次生成し出力する相関行列計算過程と、
基底行列生成部が、上記ディジタル音声信号と話者位置の推定情報を入力として、基底数D(Dは2以上の整数)の基底行列を生成する基底行列生成過程と、
相関行列分解部が、フレーム毎に上記相関行列と上記基底行列を入力として、上記相関行列を上記基底行列に射影させて正面・横向き判定に有効な特徴量である成分列を得る相関行列分解過程と、
周波数平均化処理部が、上記成分列を入力として、フレーム毎に周波数で平均化された周波数平均化成分列を出力する周波数平均化処理過程と、
正面・横向き判定部が、上記周波数平均化成分列を入力として、フレーム毎に話者の発話の向きが正面方向であるか否かを推定する正面・横向き判定過程と、
を含む発話向き推定方法。 An AD conversion process in which an AD conversion unit converts analog audio signals picked up by M (M is an integer of 2 or more) microphones into digital audio signals;
A frequency domain transforming process in which the frequency domain transforming unit transforms the digital audio signal from the time domain to the frequency domain in units of frames composed of a plurality of samples;
Correlation matrix calculation unit that sequentially generates and outputs an M × M correlation matrix representing the correlation between the digital audio signals converted into the frequency domain for each frequency as an expected value for each of a plurality of frames. Process,
A basis matrix generation process in which a basis matrix generation unit generates a basis matrix having a basis number D (D is an integer of 2 or more) by using the digital speech signal and speaker position estimation information as inputs;
Correlation matrix decomposition process for obtaining a component sequence that is an effective feature quantity for front / horizontal determination by inputting the correlation matrix and the base matrix for each frame and projecting the correlation matrix onto the base matrix for each frame When,
A frequency averaging processing step in which the frequency averaging processing unit outputs the frequency averaged component sequence averaged by frequency for each frame, using the component sequence as an input;
A front / side orientation determination unit that receives the frequency averaged component sequence as an input and estimates whether the direction of the speaker's utterance is the front direction for each frame;
Speech direction estimation method including
更に、
固有値分解部が、上記相関行列を、そのM個の固有値の二乗を対角要素とする対角行列である固有値行列と、上記各固有値に対応するM個の固有ベクトルからなる固有ベクトル行列とに分解し、最大の固有値に対応する固有ベクトル(以下、「第1固有ベクトル」という)を出力する固有値分解過程と、
第1固有ベクトルパワー計算部が、上記第1固有ベクトルを構成するM個の要素についてそれぞれパワーを計算して、M個のパワー要素を出力する第1固有ベクトルパワー計算過程と、
第1周波数平均化処理部が、各周波数毎に生成された上記M個のパワー要素についてそれぞれ平均値を計算して、M個の平均化パワー要素を出力する第1周波数平均化処理過程と、
左右向き判定部が、上記M個の平均化パワー要素のうち、任意の2本のマイクロホンに対応する2個の平均化パワー要素の比をとり、それを所定のしきい値と比較することにより、発話者が上記マイクロホンアレイに対し左向きに発話したか右向きに発話したかを判定して左右向き判定結果を出力する左右向き判定過程と、
を含み、
上記正面・横向き判定過程は、上記左右向き判定結果を入力としてフレーム毎に話者の発話の向きが正面方向であるか否か及び、左向きに発話したか右向きに発話したかを判定する過程であることを特徴とする発話向き推定方法。 In the speech direction estimation method according to claim 5,
Furthermore,
An eigenvalue decomposition unit decomposes the correlation matrix into an eigenvalue matrix that is a diagonal matrix whose diagonal elements are the squares of the M eigenvalues and an eigenvector matrix composed of M eigenvectors corresponding to the eigenvalues. Eigenvalue decomposition process for outputting an eigenvector corresponding to the largest eigenvalue (hereinafter referred to as “first eigenvector”);
A first eigenvector power calculation unit that calculates power for each of M elements constituting the first eigenvector and outputs M power elements;
A first frequency averaging processor that calculates an average value for each of the M power elements generated for each frequency and outputs M averaged power elements;
The left-right direction determination unit takes a ratio of two averaged power elements corresponding to two arbitrary microphones out of the M averaged power elements, and compares it with a predetermined threshold value. , A left-right direction determination process for determining whether the speaker speaks leftward or rightward with respect to the microphone array and outputs a left-right direction determination result;
Including
The front / horizontal determination process is a process of determining whether the direction of the speaker's utterance is the front direction for each frame with the result of the determination of the left / right direction as an input, and whether the speaker is speaking leftward or rightward. A speech direction estimation method characterized by being.
上記基底行列生成過程は、上記基底行列の1番目の基底を、直接音経路の伝達特性を模擬する方法で求め、その第1番目の基底を基に互いに直交する複数の基底ベクトルを求め、上記相関行列を分解する基底行列を生成することを特徴とする発話向き推定方法。 In the speech direction estimation method according to claim 5 or 6,
In the basis matrix generation process, the first basis of the basis matrix is obtained by a method of simulating the transfer characteristic of the direct sound path, and a plurality of basis vectors orthogonal to each other based on the first basis are obtained, An utterance direction estimation method comprising generating a base matrix for decomposing a correlation matrix.
上記基底行列生成過程は、上記基底行列の1番目の基底を、エリア強調フィルタで求め、その第1番目の基底とは別のエリアの音を強調するようなフィルタを設け、上記相関行列を分解する上記フィルタを用いて基底行列を生成することを特徴とする発話向き推定方法。 In the speech direction estimation method according to claim 5 or 6,
In the base matrix generation process, a first base of the base matrix is obtained by an area emphasis filter, and a filter for emphasizing sounds in a different area from the first base is provided, and the correlation matrix is decomposed. A utterance direction estimation method, wherein a basis matrix is generated using the filter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009048971A JP5235725B2 (en) | 2009-03-03 | 2009-03-03 | Utterance direction estimation apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009048971A JP5235725B2 (en) | 2009-03-03 | 2009-03-03 | Utterance direction estimation apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010206449A true JP2010206449A (en) | 2010-09-16 |
JP5235725B2 JP5235725B2 (en) | 2013-07-10 |
Family
ID=42967497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009048971A Expired - Fee Related JP5235725B2 (en) | 2009-03-03 | 2009-03-03 | Utterance direction estimation apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5235725B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012085035A (en) * | 2010-10-08 | 2012-04-26 | National Institute Of Information & Communication Technology | Acoustic field sharing system and optimization method |
KR101232365B1 (en) | 2011-08-19 | 2013-02-13 | 경희대학교 산학협력단 | Apparatus and method for multiple moving source positioning in wireless sensor network |
WO2017111298A1 (en) * | 2015-12-21 | 2017-06-29 | 호서대학교 산학협력단 | Underwater communication method |
JP2019168730A (en) * | 2013-12-05 | 2019-10-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Estimating room impulse response for acoustic echo cancellation |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10243494A (en) * | 1997-03-03 | 1998-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for recognizing direction of face |
JP2001236093A (en) * | 2000-02-24 | 2001-08-31 | Omron Corp | Electronic equipment controller and electronic equipment |
JP2003061184A (en) * | 2001-08-14 | 2003-02-28 | Sony Corp | Information processing apparatus and method, information generating device and method, recording medium and program |
JP2004109712A (en) * | 2002-09-20 | 2004-04-08 | Nec Engineering Ltd | Speaker's direction detecting device |
JP2007006253A (en) * | 2005-06-24 | 2007-01-11 | Sony Corp | Signal processor, microphone system, and method and program for detecting speaker direction |
JP2009517936A (en) * | 2005-11-30 | 2009-04-30 | ノエミ バレンズエラ ミリアム | Method for recording and playing back sound sources with time-varying directional characteristics |
-
2009
- 2009-03-03 JP JP2009048971A patent/JP5235725B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10243494A (en) * | 1997-03-03 | 1998-09-11 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for recognizing direction of face |
JP2001236093A (en) * | 2000-02-24 | 2001-08-31 | Omron Corp | Electronic equipment controller and electronic equipment |
JP2003061184A (en) * | 2001-08-14 | 2003-02-28 | Sony Corp | Information processing apparatus and method, information generating device and method, recording medium and program |
JP2004109712A (en) * | 2002-09-20 | 2004-04-08 | Nec Engineering Ltd | Speaker's direction detecting device |
JP2007006253A (en) * | 2005-06-24 | 2007-01-11 | Sony Corp | Signal processor, microphone system, and method and program for detecting speaker direction |
JP2009517936A (en) * | 2005-11-30 | 2009-04-30 | ノエミ バレンズエラ ミリアム | Method for recording and playing back sound sources with time-varying directional characteristics |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012085035A (en) * | 2010-10-08 | 2012-04-26 | National Institute Of Information & Communication Technology | Acoustic field sharing system and optimization method |
KR101232365B1 (en) | 2011-08-19 | 2013-02-13 | 경희대학교 산학협력단 | Apparatus and method for multiple moving source positioning in wireless sensor network |
JP2019168730A (en) * | 2013-12-05 | 2019-10-03 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Estimating room impulse response for acoustic echo cancellation |
WO2017111298A1 (en) * | 2015-12-21 | 2017-06-29 | 호서대학교 산학협력단 | Underwater communication method |
Also Published As
Publication number | Publication date |
---|---|
JP5235725B2 (en) | 2013-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10123113B2 (en) | Selective audio source enhancement | |
US8880395B2 (en) | Source separation by independent component analysis in conjunction with source direction information | |
US7995767B2 (en) | Sound signal processing method and apparatus | |
US8229129B2 (en) | Method, medium, and apparatus for extracting target sound from mixed sound | |
US20130294611A1 (en) | Source separation by independent component analysis in conjuction with optimization of acoustic echo cancellation | |
JP5375400B2 (en) | Audio processing apparatus, audio processing method and program | |
JP5123595B2 (en) | Near-field sound source separation program, computer-readable recording medium recording this program, and near-field sound source separation method | |
JP2008236077A (en) | Target sound extracting apparatus, target sound extracting program | |
KR20080073936A (en) | Apparatus and method for beamforming reflective of character of actual noise environment | |
EP3113508B1 (en) | Signal-processing device, method, and program | |
Padois et al. | On the use of modified phase transform weighting functions for acoustic imaging with the generalized cross correlation | |
CN102968999B (en) | Audio signal processing | |
JP5235725B2 (en) | Utterance direction estimation apparatus, method and program | |
JP5235605B2 (en) | Utterance direction estimation apparatus, method and program | |
Padois et al. | On the use of geometric and harmonic means with the generalized cross-correlation in the time domain to improve noise source maps | |
JP5235722B2 (en) | Utterance direction estimation apparatus, method and program | |
JP5235723B2 (en) | Utterance direction estimation apparatus, method and program | |
JP5635024B2 (en) | Acoustic signal emphasizing device, perspective determination device, method and program thereof | |
JP5235724B2 (en) | Utterance front / side direction estimation apparatus, method and program | |
JP5815489B2 (en) | Sound enhancement device, method, and program for each sound source | |
Ihara et al. | Multichannel speech separation and localization by frequency assignment | |
JP6323901B2 (en) | Sound collection device, sound collection method, and program | |
Bai et al. | Kalman filter-based microphone array signal processing using the equivalent source model | |
JP5713933B2 (en) | Sound source distance measuring device, acoustic direct ratio estimating device, noise removing device, method and program thereof | |
JP4173469B2 (en) | Signal extraction method, signal extraction device, loudspeaker, transmitter, receiver, signal extraction program, and recording medium recording the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110118 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20110715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130326 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160405 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |