JP5971047B2 - Audio signal processing apparatus, method and program - Google Patents
Audio signal processing apparatus, method and program Download PDFInfo
- Publication number
- JP5971047B2 JP5971047B2 JP2012200898A JP2012200898A JP5971047B2 JP 5971047 B2 JP5971047 B2 JP 5971047B2 JP 2012200898 A JP2012200898 A JP 2012200898A JP 2012200898 A JP2012200898 A JP 2012200898A JP 5971047 B2 JP5971047 B2 JP 5971047B2
- Authority
- JP
- Japan
- Prior art keywords
- hangover
- target
- coherence
- target speech
- directivity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Description
本発明は音声信号処理装置、方法及びプログラムに関し、例えば、携帯電話、テレビ会議などの、音声信号に対して目的音声区間検出などの処理を行う通信装置又は通信ソフトウェアに適用し得るものである。 The present invention relates to an audio signal processing apparatus, method, and program, and can be applied to a communication apparatus or communication software that performs processing such as target audio section detection on an audio signal, such as a mobile phone or a video conference.
音声検出とは、入力信号から目的話者が発生した発話信号の区間(以下、このような発話信号を目的音声と呼び、その区間を目的音声区間と呼ぶ)か否かを判定し、目的音声区間以外の非目的音声区間と区別する技術のことである(なお、目的音声以外を非目的音声と呼んでいる)。この音声検出結果に基づいて、後段で、音声符号化処理や雑音抑圧処理などを適宜稼動させるため、音声検出には高い精度が要求される。一般的な音声検出方法は、特許文献1に記載されているように、目的音声のレベルは変動し、非目的音声区間のレベルは定常的であることを前提として、入力された音声信号レベルの瞬時値と長期平均値とを比較し、瞬時値が長期平均値に所定の閾値以上の差をつけて上回っている区間を目的音声区間とみなす、というものである。
Speech detection is to determine whether or not the speech signal section generated by the target speaker from the input signal (hereinafter, such speech signal is referred to as the target speech and the section is referred to as the target speech section), and the target speech is determined. This is a technique for distinguishing from a non-target voice section other than the section (in addition, a non-target voice is called a non-target voice). Based on the result of the speech detection, speech encoding processing, noise suppression processing, and the like are appropriately operated at a later stage, so that high accuracy is required for speech detection. As described in
ところで、非目的音声は、話者以外の人間の声である「妨害音声」と、オフィスノイズや道路ノイズなどのような「背景雑音」とに分けられる。妨害音声も人間の音声なので、レベル変動は目的音声と同じような挙動を持つため、従来の手法では、妨害音声の区間も目的音声区間に含まれてしまう、という課題がある。このため、この従来手法を音声符号化処理に適用した場合、妨害音声の特性も符号化後のパラメータに反映されてしまう。また、この従来手法を雑音抑圧処理に適用した場合には、妨害音声区間の信号は除去されず、十分な抑圧性能が得られなくなる。 By the way, the non-target voice is divided into “interfering voice” which is a human voice other than the speaker and “background noise” such as office noise and road noise. Since the disturbing speech is human speech, the level fluctuation has the same behavior as that of the target speech. Therefore, in the conventional method, there is a problem that the disturbing speech section is included in the target speech section. For this reason, when this conventional method is applied to speech encoding processing, the characteristics of disturbing speech are also reflected in the encoded parameters. In addition, when this conventional method is applied to noise suppression processing, the signal in the disturbing speech section is not removed, and sufficient suppression performance cannot be obtained.
このような課題は、目的音声区間検出部で参照する特徴量を入力された音声信号レベルの変動から、コヒーレンスに変更することで改善される。コヒーレンスとは、簡単に述べれば、入力信号の到来方位を意味する特徴量である。携帯電話などの利用を想定した場合、話者の音声(目的音声)は正面から到来し、妨害音声は正面以外から到来する傾向が強いので、到来方位に着目することで、従来は不可能だった目的音声と妨害音声との区別が可能となる。 Such a problem can be improved by changing the feature amount referred to by the target speech section detection unit to the coherence from the variation of the input speech signal level. In brief, coherence is a feature amount that means the arrival direction of an input signal. Assuming the use of mobile phones, etc., the speaker's voice (target voice) comes from the front, and the disturbing voice tends to come from other than the front. It is possible to distinguish between the target voice and the disturbing voice.
図9は、目的音声区間検出機能にコヒーレンスを用いる場合の構成を示すブロック図である。 FIG. 9 is a block diagram showing a configuration when coherence is used for the target speech segment detection function.
一対のマイクm_1、m_2のそれぞれから、図示しないAD変換器を介して入力信号s1(n)、s2(n)を取得する。なお、nはサンプルの入力順を表すインデックスであり、正の整数で表現される。本文中では、nが小さいほど古い入力サンプルであり、大きいほど新しい入力サンプルであるとする。 Input signals s1 (n) and s2 (n) are acquired from each of the pair of microphones m_1 and m_2 via an AD converter (not shown). Note that n is an index indicating the input order of samples, and is expressed as a positive integer. In the text, it is assumed that the smaller n is the older input sample, and the larger n is the newer input sample.
FFT部10は、マイクm_1及びm_2から入力信号系列s1(n)及びs2(n)を受け取り、その入力信号s1及びs2に高速フーリエ変換(あるいは離散フーリエ変換)を行うものである。これにより、入力信号s1及びs2を周波数領域で表現することができる。なお、高速フーリエ変換を実施するにあたり、入力信号s1(n)及びs2(n)から、所定のN個のサンプルからなる分析フレームFRAME1(K)及びFRAME2(K)を構成して適用する。入力信号s1(n)から分析フレームFRAME1(K)を構成する例を以下の(1)式に示すが、分析フレームFRAME2(K)も同様である。
なお、Kはフレームの順番を表すインデックスであり、正の整数で表現される。本文中では、Kが小さいほど古い分析フレームであり、大きいほど新しい分析フレームであるとする。また、以降の動作説明において、特に但し書きがない限りは、分析対象となる最新の分析フレームを表すインデックスはKであるとする。 K is an index indicating the order of frames and is expressed by a positive integer. In the text, it is assumed that the smaller the K, the older the analysis frame, and the larger, the newer the analysis frame. In the following description of the operation, it is assumed that the index representing the latest analysis frame to be analyzed is K unless otherwise specified.
FFT部10は、分析フレームごとに高速フーリエ変換処理を施すことで、周波数領域信号X1(f,K)、X2(f,K)に変換し、得られた周波数領域信号X1(f,K)及びX2(f,K)をそれぞれ、対応する第1の指向性形成部11、第2の指向性形成部12に与える。なお、fは周波数を表すインデックスである。また、X1(f,K)は単一の値ではなく、(2)式に示すように、複数の周波数f1〜fmのスペクトル成分から構成されるものである。X2(f,K)や後述するB1(f,K)及びB2(f,K)も同様である。
The
X1(f,K)={(f1,K),(f2,K),…,(fm,K)}
…(2)
第1の指向性形成部11では、周波数領域信号X1(f,K)及びX2(f,K)から特定方向に指向性が強い信号B1(f,K)を形成し、第2の指向性形成部12では、周波数領域信号X1(f,K)及びX2(f,K)から特定方向(上述の特定方向とは異なる)に指向性が強い信号B2(f,K)を形成する。特定方向に指向性が強い信号B1(f,K)、B2(f,K)の形成方法としては既存の方法を適用でき、例えば、(3)式を適用して右方向に指向性が強いB1(f,K)や(4)式を適用して左方向に指向性が強いB2(f,K)が形成できる。(3)式及び(4)式では、フレームインデックスKは演算に関与しないので省略している。
... (2)
The first
これらの式の意味を、(3)式を例に、図10及び図11を用いて説明する。図10(A)に示した方向θから音波が到来し、距離lだけ隔てて設置されている一対のマイクm_1及びm_2で捕捉されたとする。このとき、音波が一対のマイクm_1及びm_2に到達するまでには時間差が生じる。この到達時間差τは、音の経路差をdとすると、d=l×sinθなので、音速をcとすると(5)式で与えられる。 The meaning of these equations will be described with reference to FIGS. 10 and 11 by taking the equation (3) as an example. It is assumed that sound waves arrive from the direction θ shown in FIG. 10A and are captured by a pair of microphones m_1 and m_2 that are installed at a distance l. At this time, there is a time difference until the sound wave reaches the pair of microphones m_1 and m_2. This arrival time difference τ is given by equation (5), where d = 1 × sin θ, where d is the sound path difference, and c is the sound speed.
τ=l×sinθ/c …(5)
ところで、入力信号s1(n)にτだけ遅延を与えた信号s1(t−τ)は、入力信号s2(t)と同一の信号である。従って、両者の差をとった信号y(t)=s2(t)−s1(t−τ)は、θ方向から到来した音が除去された信号となる。結果として、マイクロフォンアレーm_1及びm_2は図10(B)のような指向特性を持つようになる。
τ = 1 × sin θ / c (5)
Incidentally, a signal s1 (t−τ) obtained by delaying the input signal s1 (n) by τ is the same signal as the input signal s2 (t). Therefore, the signal y (t) = s2 (t) −s1 (t−τ) taking the difference between them is a signal from which the sound coming from the θ direction is removed. As a result, the microphone arrays m_1 and m_2 have directivity characteristics as shown in FIG.
なお、以上では、時間領域での演算を記したが、周波数領域で行っても同様なことがいえる。この場合の式が、上述した(3)式及び(4)式である。今、一例として、到来方位θが±90度であることを想定する。すなわち、第1の指向性形成部11からの指向性信号B1(f)は、図11(A)に示すように右方向に強い指向性を有し、第2の指向性形成部12からの指向性信号B2(f)は、図11(B)に示すように左方向に強い指向性を有する。
In the above, the calculation in the time domain has been described, but the same can be said if it is performed in the frequency domain. The equations in this case are the above-described equations (3) and (4). As an example, it is assumed that the arrival direction θ is ± 90 degrees. That is, the directivity signal B1 (f) from the first
以上のようにして得られた指向性信号B1(f)、B2(f)に対し、コヒーレンス計算部13で、(6)式、(7)式のような演算を施すことでコヒーレンスCOHが得られる。(6)式におけるB2(f)*はB2(f)の共役複素数である。また、フレームインデックスKは、(6)式、(7)式の演算には関与しないので、(6)式、(7)式ではフレームインデックスKの記載を省略している。
目的音声区間検出部14では、図12に示すように、コヒーレンスCOH(K)を取得すると(ステップS100)、コヒーレンスCOH(K)を目的音声区間判定閾値Θと比較し(ステップS101)、コヒーレンスCOH(K)が目的音声区間判定閾値Θ以上であれば目的音声区間とみなして判定結果変数VAD_RES(K)に1.0を代入し(ステップS102)、コヒーレンスCOH(K)が目的音声区間判定閾値Θより小さければ非目的音声区間(妨害音声、背景雑音の区間)とみなして判定結果変数VAD_RES(K)には0.0を代入し(ステップS103)、判定結果変数VAD_RES(K)を出力する(ステップS104)。そして、次のフレームの処理に移行する(ステップS105)。後段の音声符号化処理や雑音抑圧処理は、この結果に基づいて、目的音声区間か否かに応じた所定の処理を行う。
As shown in FIG. 12, the target speech
ここで、コヒーレンスCOHの大小で目的音声区間を検出する背景を簡単に述べておく。コヒーレンスCOHの概念は、右から到来する信号と左から到来する信号の相関と言い換えられる(上述した(6)式はある周波数成分についての相関を算出する式であり、(7)式は全ての周波数成分の相関値の平均を計算している)。従って、コヒーレンスCOHが小さい場合とは、2つの指向性信号B1及びB2の相関が小さい場合であり、反対にコヒーレンスCOHが大きい場合とは相関が大きい場合と言い換えることができる。そして、相関が小さい場合の入力信号は、入力到来方位が右又は左のどちらかに大きく偏った場合か、偏りがなくても雑音のような明確な規則性の少ない信号の場合である。そのため、コヒーレンスCOHが小さい区間は妨害音声区間あるいは背景雑音区間(非目的音声区間)であるといえる。一方、コヒーレンスCOHの値が大きい場合は、到来方位の偏りがないため、入力信号が正面から到来する場合であるといえる。今、目的音声は正面から到来すると仮定しているので、コヒーレンスCOHが大きい場合は目的音声区間といえる。 Here, a brief description will be given of the background for detecting the target speech section based on the coherence COH. The concept of coherence COH can be paraphrased as the correlation between the signal coming from the right and the signal coming from the left (the above-mentioned expression (6) is an expression for calculating the correlation for a certain frequency component, and the expression (7) Calculating the average of the correlation values of the frequency components). Therefore, the case where the coherence COH is small is a case where the correlation between the two directivity signals B1 and B2 is small. Conversely, the case where the coherence COH is large can be paraphrased as a case where the correlation is large. The input signal when the correlation is small is when the input arrival direction is greatly deviated to the right or left, or when the signal is clear and has little regularity such as noise even if there is no deviation. Therefore, it can be said that the section where the coherence COH is small is a disturbing voice section or a background noise section (non-target voice section). On the other hand, when the value of the coherence COH is large, it can be said that there is no bias in the arrival direction, and therefore the input signal comes from the front. Now, since it is assumed that the target speech comes from the front, it can be said that it is the target speech section when the coherence COH is large.
ところで、コヒーレンスは目的音声区間であっても小振幅部ではコヒーレンス値が小さいため、上記手法では正面から到来する音声であっても非目的音声区間と誤って判定することがある。 By the way, even if the coherence is the target speech section, the coherence value is small in the small amplitude part, so even the speech arriving from the front may be erroneously determined as the non-target speech section.
このような課題に対し、本願発明者は、先願(特願2012−151563)で、ハングオーバー付与部を追加し、目的音声区間である、という判定結果を一定時間だけ保持させることを提案している。 In response to such a problem, the inventor of the present application proposes to add a hangover provision unit and hold the determination result that the target speech section is a predetermined time in a prior application (Japanese Patent Application No. 2012-151563). ing.
図13が、ハングオーバー付与部を追加した構成を示し、図14が、図13における目的音声区間検出・ハングオーバー付与部15の動作を示している。
FIG. 13 shows a configuration in which a hangover giving unit is added, and FIG. 14 shows an operation of the target speech section detection /
図13の構成において、図9の構成とは、目的音声区間検出部14に代えて目的音声区間検出・ハングオーバー付与部15が設けられている点が異なっている。
The configuration of FIG. 13 differs from the configuration of FIG. 9 in that a target speech segment detection /
目的音声区間検出・ハングオーバー付与部15は、コヒーレンスCOH(K)を受信すると(ステップS100)、コヒーレンスCOH(K)とハングオーバーカウンタ初期化閾値Ψと比較する(ステップS200)。そして、コヒーレンスCOH(K)が閾値Ψ以上であると、目的音声区間であると判定し、判定結果変数VAD_RES(K)に1.0を、ハングオーバーカウンタcounterにはカウンタ初期値LENGTHを代入する(ステップS201)。一方、コヒーレンスCOH(K)が閾値Ψより小さいと、目的音声区間検出・ハングオーバー付与部15は、コヒーレンスCOH(K)と目的音声区間判定閾値Φ(但しΨ>Φ)と比較する(ステップS202)。そして、コヒーレンスCOH(K)が閾値Φ以上であると、ハングオーバーカウンタcounterを操作することなく、判定結果変数VAD_RES(K)に1.0を代入することだけを行う(ステップS203)。コヒーレンスCOH(K)が閾値Φより小さいと、ハングオーバーカウンタcounterが正か否かを判定する(ステップS204)。そして、ハングオーバーカウンタcounterが正であればコヒーレンスCOH(K)は小さくても目的音声区間と判定し、判定結果変数VAD_RES(K)に1.0を代入すると共に、ハングオーバーカウンタcounterを1デクリメントする。一方、コヒーレンスCOH(K)が閾値Φより小さい上に、ハングオーバーカウンタcounterが0以下であれば、非目的音声区間と判定し、判定結果変数VAD_RES(K)に0.0を代入する(ステップS206)。その後、判定結果変数VAD_RES(K)を後段に出力し(ステップS104)、次のフレームの処理に移行する(ステップS105)。
When receiving the coherence COH (K) (step S100), the target speech section detection /
ところで、図15に示すように、目的音声の到来方位が正面寄りならばコヒーレンスCOH(K)は全体的に大きい値となるが、側方にずれていくにつれてコヒーレンスCOH(K)は小さい値になる。そのため、妨害音声の到来方位が側方の場合には、コヒーレンスCOH(K)が閾値Φを下回ることが多くなり、ハングオーバーカウンタcounterが何度もデクリメントされて、急速に負の値となり、目的音声区間の途中でハングオーバー効果が得られなくなってしまう。逆に、妨害音声が正面寄りから到来する場合にはコヒーレンスCOH(K)は閾値Φを上回ることが多いため、ハングオーバーカウンタcounterのデクリメントは進まず、目的音声区間が終了した後までハングオーバー効果が働いてしまうので、非目的音声区間を目的音声区間と誤って判定し続けてしまう。 By the way, as shown in FIG. 15, if the direction of arrival of the target speech is close to the front, the coherence COH (K) becomes a large value as a whole, but the coherence COH (K) becomes a small value as it shifts to the side. Become. Therefore, when the arrival direction of the disturbing voice is lateral, the coherence COH (K) often falls below the threshold Φ, the hangover counter counter is decremented many times, and rapidly becomes a negative value. The hangover effect cannot be obtained in the middle of the voice section. On the other hand, when the disturbing voice comes from the front, the coherence COH (K) often exceeds the threshold Φ, so the hangover counter counter does not decrement and the hangover effect until after the target voice section ends. Therefore, the non-target speech section is erroneously determined as the target speech section.
そのため、妨害音声の到来方位に影響を受けずに、ハングオーバー付与機能を有効に働かすことができる音声信号処理装置、方法及びプログラムが望まれている。 Therefore, an audio signal processing apparatus, method, and program capable of effectively operating the hangover imparting function without being affected by the arrival direction of the disturbing voice is desired.
第1の本発明は、入力音声信号から目的音声の区間と非目的音声の区間とを切り分ける音声信号処理装置において、(1)入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、(2)入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、(3)上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、(4)上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させる目的音声区間検出・ハングオーバー付与部と、(5)非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御するハングオーバー長制御部とを備えることを特徴とする。 According to a first aspect of the present invention, in an audio signal processing device that separates a target audio segment and a non-target audio segment from an input audio signal, (1) a delay subtraction process is performed on the input audio signal, thereby A first directivity forming unit for forming a first directivity signal having a directivity characteristic having a blind spot, and (2) performing a delay subtraction process on the input audio signal, thereby Uses a second directivity forming section for forming a second directivity signal having a directivity characteristic having a blind spot in a different second predetermined orientation, and (3) using the first and second directivity signals. A coherence calculation unit for obtaining coherence, and (4) comparing the coherence with the target speech segment determination threshold value, and whether the input speech signal is a target speech segment arriving from the target direction or other non-target speech Determine whether it is a section and Hangover is greater than the target speech segment determination threshold, and the result of the comparison using the target speech segment determination threshold hangs even if the determination result changes from the target speech segment to the non-target speech segment. The target speech segment detection / hangover imparting unit that continues the determination result of the target speech segment by the over length, and (5) a feature amount that represents the switching frequency of the coherence change tendency in the non-target speech segment is obtained and obtained. And a hangover length control unit for controlling the hangover length applied by the target speech segment detection / hangover giving unit according to the feature amount.
第2の本発明は、入力音声信号から目的音声の区間と非目的音声の区間とを切り分ける音声信号処理方法において、(1)第1の指向性形成部は、入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成し、(2)第2の指向性形成部は、入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成し、(3)コヒーレンス計算部は、上記第1及び第2の指向性信号を用いてコヒーレンスを得、(4)目的音声区間検出・ハングオーバー付与部は、上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させ、(5)ハングオーバー長制御部は、非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御することを特徴とする。 According to a second aspect of the present invention, there is provided an audio signal processing method for separating a target audio segment and a non-target audio segment from an input audio signal. (1) The first directivity forming unit performs a delay subtraction process on an input audio signal. As a result, a first directivity signal having a directivity characteristic having a blind spot in the first predetermined direction is formed. (2) The second directivity forming unit performs a delay subtraction process on the input audio signal. Thus, a second directivity signal having a directivity characteristic having a blind spot in a second predetermined orientation different from the first predetermined orientation is formed, and (3) a coherence calculation unit is configured to (4) The target speech segment detection / hangover imparting unit compares the coherence with the target speech segment determination threshold value, and the input speech signal arrives from the target direction. The target voice segment or other It is determined whether it is a target speech segment, and the coherence is compared with a hangover provision threshold value that is larger than the target speech segment determination threshold value. Even if the target speech section is changed, the determination result of the target speech section is continued by the hangover length. (5) The hangover length control unit represents the switching frequency of the coherence change tendency in the non-target speech section. The hangover length applied by the target speech segment detection / hangover imparting unit is controlled according to the obtained feature amount.
第3の本発明の音声信号処理プログラムは、コンピュータを、(1)入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、(2)入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、(3)上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、(4)上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させる目的音声区間検出・ハングオーバー付与部と、(5)非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御するハングオーバー長制御部として機能させることを特徴とする。 The audio signal processing program according to the third aspect of the present invention is the first directivity in which the computer has (1) delayed directivity processing applied to the input audio signal to give a directivity characteristic having a blind spot in the first predetermined direction. A first directivity forming unit that forms a signal; and (2) performing a delay subtraction process on the input audio signal, thereby providing a directivity characteristic having a blind spot in a second predetermined direction different from the first predetermined direction. A second directivity forming unit that forms the given second directivity signal, (3) a coherence calculation unit that obtains coherence using the first and second directivity signals, and (4) the coherence The target speech segment determination threshold is compared to determine whether the input speech signal is a target speech segment arriving from the target orientation or any other non-target speech segment, and the coherence and the target speech segment are determined. C that is greater than the judgment threshold Compared with the threshold value for the gover assignment, even if the result of the comparison using the target speech segment determination threshold changes from the target speech segment to the non-target speech segment, the determination result of the target speech segment is continued by the hangover length. A target speech segment detection / hangover imparting unit, and (5) a feature amount representing a switching frequency of a coherence change tendency in the non-target speech segment is obtained, and the target speech segment detection is performed according to the obtained feature amount -It is made to function as a hangover length control part which controls the said hangover length which a hangover provision part applies.
本発明の音声信号処理装置、方法及びプログラムによれば、妨害音声の到来方位に影響を受けずに、ハングオーバー付与機能を有効に働かすことができるようになる。 According to the audio signal processing apparatus, method, and program of the present invention, the hangover provision function can be used effectively without being affected by the arrival direction of the disturbing voice.
(A)第1の実施形態
以下、本発明による音声信号処理装置、方法及びプログラムの第1の実施形態を、図面を参照しながら説明する。
(A) First Embodiment Hereinafter, a first embodiment of an audio signal processing apparatus, method, and program according to the present invention will be described with reference to the drawings.
第1の実施形態の音声信号処理装置、方法及びプログラムは、妨害音声の到来方位に応じてハングオーバー長を適切に制御して過不足のないハングオーバー効果を得ようとしたものである。 The audio signal processing apparatus, method, and program according to the first embodiment are intended to obtain a hangover effect without excess or deficiency by appropriately controlling the hangover length according to the arrival direction of the disturbing voice.
(A−1)第1の実施形態の構成
図1は、第1の実施形態に係る音声信号処理装置の構成を示すブロック図であり、上述した図13との同一、対応部分には同一符号を付して示している。ここで、一対のマイクm_1及びm_2を除いた部分は、CPUが実行するソフトウェア(音声信号処理プログラム)として実現することも可能であるが、機能的には、図1で表すことができる。
(A-1) Configuration of the First Embodiment FIG. 1 is a block diagram showing the configuration of the audio signal processing device according to the first embodiment. Is shown. Here, the part excluding the pair of microphones m_1 and m_2 can be realized as software (audio signal processing program) executed by the CPU, but can be functionally represented in FIG.
図1において、第1の実施形態の音声信号処理装置1は、先願構成と同様なマイクm_1、m_2、FFT部10、第1指向性形成部11、第2の指向性形成部12、コヒーレンス計算部13及び目的音声区間検出・ハングオーバー付与部15に加え、ハングオーバー長制御部16を有する。
In FIG. 1, an audio
ここで、マイクm_1、m_2、FFT部10、第1指向性形成部11、第2の指向性形成部12、コヒーレンス計算部13及び目的音声区間検出・ハングオーバー付与部15は、先願構成と同様な機能を担っているので、その機能説明は省略する。
Here, the microphones m_1, m_2, the
ハングオーバー長制御部16は、上述した課題を解決するために設けられたものであり、コヒーレンスCOH(K)から得る特徴量に基づき、妨害音声の到来方位に応じて適切なハングオーバー長LENGTHを設定できるようにしたものである。ハングオーバー長制御部16は、コヒーレンスCOH(K)と、目的音声区間判定結果変数VAD_RES(K)とに基づき、非目的音声区間での到来方位を推定し、ハングオーバー長LENGTHを設定する。
The hangover
なお、第1の実施形態の目的音声区間検出・ハングオーバー付与部15は、ハングオーバー長制御部16によって設定されたハングオーバー長LENGTHを適用してハングオーバーの付与動作を行う。
The target speech segment detection /
図2は、ハングオーバー長制御部16の詳細構成を示すブロック図である。図2において、ハングオーバー長制御部16は、コヒーレンス・音声区間検出結果受信部21、特徴量計算制御部22、ハングオーバー長照合制御部23、非目的音声区間特徴量計算部24、ハングオーバー長照合部25、記憶部26及びハングオーバー長送信部27を有する。
FIG. 2 is a block diagram showing a detailed configuration of the hangover
コヒーレンス・音声区間検出結果受信部21は、コヒーレンス計算部からコヒーレンスCOH(K)を、目的音声区間検出・ハングオーバー付与部15から判定結果変数VAD_RES(K)を受信するものである。
The coherence / speech interval detection
特徴量計算制御部22は、判定結果変数VAD_RES(K)を参照して非目的音声区間か否かを認識し、ハングオーバー長照合制御部23、非目的音声区間特徴量計算部24及びハングオーバー長照合部25を動作させ、若しくは、動作させないものである。
The feature quantity
非目的音声区間特徴量計算部24は、現フレームでのコヒーレンスCOH(K)と直前フレームにおけるCOH(K−1)との差DIFF(K)を計算し(差DIFF(K)を時刻の相違1で除算したと見た場合には、微分係数と表現することもできる)、この差DIFF(K)と直前区間の微分係数DIFF(K−1)の積を計算し、積が負の値ならば(コヒーレンスの変化傾向が増加から減少、又は、減少から増加に変わったことを意味している)、微分係数の正負の反転回数を表す変数(以下、ゼロクロス値と呼ぶ)zero_crossを増加させ、積が正の値ならば、ゼロクロス値zero_crossは更新せずにそのままの値とするものである。
The non-target speech section feature
ハングオーバー長照合制御部23は、照合周期を検出するカウンター変数timerを増加させ、所定値LIMITに達すると、ハングオーバー長照合部25による照合を実行させるものである。
The hangover length
記憶部25は、図3に示すように、ゼロクロス値zero_crossの範囲に対応付けてハングオーバー長LENGTHを記憶しているものである。図3の例では、ゼロクロス値zero_crossがA以上B未満のときは、ハングオーバー長LENGTHとしてαが対応付けられ、ゼロクロス値zero_crossがB以上C未満のときは、ハングオーバー長LENGTHとしてβ(>α)が対応付けられ、ゼロクロス値zero_crossがC以上D未満のときは、ハングオーバー長LENGTHとしてγ(>β)が対応付けられている。このような関係にすることで、微分係数のゼロクロス回数が多い(側方から妨害音が到来する)場合には、ハングオーバー長LENGTHを長くし、微分係数のゼロクロス回数が少ない(正面寄りから妨害音が到来する)場合には、ハングオーバー長LENGTHを短くできる。 As illustrated in FIG. 3, the storage unit 25 stores a hangover length LENGTH in association with the range of the zero cross value zero_cross. In the example of FIG. 3, when the zero cross value zero_cross is greater than or equal to A and less than B, α is associated with the hangover length LENGTH. When the zero cross value zero_cross is greater than or equal to B and less than C, β (> α ) And zero cross value zero_cross is C or more and less than D, γ (> β) is associated as the hangover length LENGTH. With this relationship, if the number of zero crossings of the differential coefficient is large (disturbance sound comes from the side), the hangover length LENGTH is increased and the number of zero crossings of the differential coefficient is small (disturbance from the front). Hangover length LENGTH can be shortened.
ハングオーバー長照合部25は、ハングオーバー長照合制御部23の制御下で、非目的音声区間特徴量計算部24が得たゼロクロス値zero_crossをキーとして記憶部26を照合し、ハングオーバー長LENGTHを得るものである。
Under the control of the hangover length
ハングオーバー長送信部27は、ハングオーバー長照合部25が得たハングオーバー長LENGTHを目的音声区間検出・ハングオーバー付与部16に与えるものである。
The hangover
(A−2)第1の実施形態の動作
次に、第1の実施形態の音声信号処理装置1の動作を、図面を参照しながら、全体動作、ハングオーバー長制御部16における詳細動作の順に説明する。
(A-2) Operation of the First Embodiment Next, the operation of the audio
一対のマイクm_1及びm_2から入力された信号s1(n)、s2(n)はそれぞれ、FFT部10によって時間領域から周波数領域の信号X1(f,K)、X2(f,K)に変換された後、第1及び第2の指向性形成部11及び12のそれぞれによって、所定の方位に死角を有する指向性信号B1(f,K)、B2(f,K)が生成される。そして、コヒーレンス計算部13において、指向性信号B1(f,K)及びB2(f,K)を適用して、(6)式及び(7)式の演算が実行され、コヒーレンスCOH(K)が算出される。
The signals s1 (n) and s2 (n) input from the pair of microphones m_1 and m_2 are respectively converted from the time domain to the frequency domain signals X1 (f, K) and X2 (f, K) by the
ハングオーバー長制御部16において、後述する方法でハングオーバー長LENGTHが決定して目的音声区間検出・ハングオーバー付与部15に与えられる。目的音声区間検出・ハングオーバー付与部15においては、コヒーレンスCOH(K)に基づいて目的音声区間か非目的音声区間かが判定され、目的音声区間であるという判定結果は、ハングオーバー長制御部16から与えられたハングオーバー長LENGTHだけ保持され、そのようにして形成された判定結果変数VAD_RES(K)が後段に出力される。
In the hangover
次に、ハングオーバー長制御部16の動作を説明する。図4は、ハングオーバー長制御部16の動作を示すフローチャートである。
Next, the operation of the hangover
ハングオーバー長制御部16においては、非目的音声区間でのコヒーレンスCOH(K)の微分係数の正負の変動(以下、「ゼロクロス」と呼ぶ)に基づいて到来方位を推定し、ハングオーバー長LENGTHを設定する。
The hangover
ハングオーバー長制御部16の動作説明に先立ち、ハングオーバー長制御部16を設けた意味合いを説明する。上述したように、コヒーレンスは到来方位に応じて相関の強さが変わり、正面寄りでは相関が安定的に強く、コヒーレンスの変動は相対的にはなだらかである。一方、到来方位が横に逸れると相関は弱くなり、コヒーレンスの変動もランダムで激しい。妨害音声の到来方位が正面寄りの場合には、微分係数の変動も穏やかで、正負の変動が少ないのでゼロクロスの回数は少なく、一方、到来方位が横にずれると微分係数の正負の変化が頻繁でゼロクロスの回数は多くなる。以上の挙動に基づけば、到来方位に応じてハングオーバー長を制御できる。
Prior to the description of the operation of the hangover
図4において、新しいフレームの処理に進むと、まず、コヒーレンス計算部13からコヒーレンスCOH(K)を、目的音声区間検出・ハングオーバー付与部15から判定結果変数VAD_RES(K)を受け取る(ステップS300)。そして、判定結果変数VAD_RES(K)が非目的音声区間を表している値か否かを判定する(ステップS301)。
In FIG. 4, when processing proceeds to a new frame, first, coherence COH (K) is received from the
判定結果変数VAD_RES(K)が目的音声区間を表している値の場合には、照合周期を規定するカウンター変数timer及び微分係数DIFFを初期化し(ステップS302)、フレームを規定する変数Kを1インクリメントし(ステップS303)、次のフレームの処理に移行する。 If the determination result variable VAD_RES (K) is a value representing the target speech section, the counter variable timer and the differential coefficient DIFF that define the verification period are initialized (step S302), and the variable K that defines the frame is incremented by one. Then (step S303), the processing shifts to the next frame.
これに対して、受け取った判定結果変数VAD_RES(K)が非目的音声区間を表している値の場合には、現フレームでのコヒーレンスCOH(K)と直前フレームにおけるCOH(K−1)との差DIFF(K)を計算し(ステップS304)、次に、この差DIFF(K)と直前区間の微分係数DIFF(K−1)の積を計算して積が正か負かを判定する(ステップS305)。積が負の値ならば、ゼロクロス値zero_crossを1だけ増加させ(ステップS306)、積が正の値ならばゼロクロス値zero_crossは更新せず、そのままの値とする(ステップS307)。 On the other hand, when the received determination result variable VAD_RES (K) is a value representing the non-target speech section, the coherence COH (K) in the current frame and the COH (K−1) in the immediately preceding frame. The difference DIFF (K) is calculated (step S304), and then the product of the difference DIFF (K) and the differential coefficient DIFF (K-1) of the immediately preceding section is calculated to determine whether the product is positive or negative ( Step S305). If the product is a negative value, the zero cross value zero_cross is incremented by 1 (step S306). If the product is a positive value, the zero cross value zero_cross is not updated and is used as it is (step S307).
また、判定結果変数VAD_RES(K)が目的音声区間を表している値の場合には、照合周期を検出するカウンター変数timerを増加させ(ステップS308)、所定値LIMITに達したか否かを判定する(ステップS309)。増加後のカウンター変数timerが所定値LIMITに到達していない場合には、フレームを規定する変数Kを1インクリメントし(ステップS303)、次のフレームの処理に移行する。 If the determination result variable VAD_RES (K) is a value representing the target speech section, the counter variable timer for detecting the verification period is increased (step S308), and it is determined whether or not the predetermined value LIMIT has been reached. (Step S309). If the counter variable timer after the increase does not reach the predetermined value LIMIT, the variable K defining the frame is incremented by 1 (step S303), and the process proceeds to the next frame.
仮に、カウンター変数timerを1フレームにつき1だけ増加させ、所定値LIMITを20と設定した場合には、20フレーム毎に、所定値LIMITに到達することになり、後述するハングオーバー長の照合動作が実行される。 If the counter variable timer is incremented by 1 per frame and the predetermined value LIMIT is set to 20, the predetermined value LIMIT is reached every 20 frames, and the hangover length verification operation described later is performed. Executed.
増加後のカウンター変数timerが所定値LIMITに到達すると、記憶部26の記憶内容と照合され、その時点でのゼロクロス値zero_crossと対応するハングオーバー長LENGTHが取得されて目的音声区間検出・ハングオーバー付与部15に与えられ、また、カウンター変数timerが初期化される(ステップS310)。その後、フレームを規定する変数Kを1インクリメントし(ステップS303)、次のフレームの処理に移行する。
When the incremented counter variable timer reaches a predetermined value LIMIT, it is compared with the stored contents of the
(A−3)実施形態の効果
以上のように、第1の実施形態によれば、妨害音声の到来方位に応じて、ハングオーバー長を適切な値に設定するので、過不足のないハングオーバー効果を奏することができる。
(A-3) Effect of Embodiment As described above, according to the first embodiment, the hangover length is set to an appropriate value according to the arrival direction of the disturbing speech, so that the hangover without excess or deficiency is achieved. There is an effect.
これにより、第1の実施形態の音声信号処理装置を、テレビ会議システムや携帯電話などの通信装置に適用することで、通話音質の向上が期待できる。 As a result, by applying the audio signal processing apparatus of the first embodiment to a communication apparatus such as a video conference system or a mobile phone, it is possible to expect improvement in call sound quality.
(B)第2の実施形態
次に、本発明による音声信号処理装置、方法及びプログラムの第2の実施形態を、図面を参照しながら説明する。
(B) Second Embodiment Next, a second embodiment of the audio signal processing apparatus, method and program according to the present invention will be described with reference to the drawings.
第2の実施形態は、第1の実施形態が解消した不都合に加え、以下の不都合を解消しようとしたものである。 The second embodiment is intended to solve the following inconveniences in addition to the inconveniences solved by the first embodiment.
背景雑音が重畳されると、目的音声区間でのコヒーレンスは極大値が小さくなり、極小値が大きくなる、という挙動をする。極大値が小さくなるのは、音声信号よりも波形の規則性が低い背景雑音の影響も反映されてコヒーレンス値が算出されてしまうためである。また、極小値が大きくなるのは、背景雑音は規則性が低いとはいえ無音の場合よりは規則性が出るためである。 When background noise is superimposed, the coherence in the target speech section behaves such that the maximum value decreases and the minimum value increases. The reason why the maximum value is small is that the coherence value is calculated by reflecting the influence of background noise whose waveform regularity is lower than that of the audio signal. Also, the minimum value is large because the background noise is more regular than the silent case although the regularity is low.
このため、背景雑音によっては、コヒーレンスCOH(K)がハングオーバーカウンタ初期化閾値Ψを上回る頻度が下がり、十分にハングオーバーが付与きれなくなってしまい、目的音声区間判定に誤判定が生じる。 For this reason, depending on the background noise, the frequency at which the coherence COH (K) exceeds the hangover counter initialization threshold Ψ is reduced, and the hangover cannot be sufficiently applied, resulting in erroneous determination in the target speech section determination.
第2の実施形態は、このような不都合を解消するために、背景雑音重畳時には、目的音声区間におけるコヒーレンスCOH(K)のばらつきが小さくなるという特徴を用いて、ハングオーバーカウンタ初期化閾値Ψを目的音声区間のコヒーレンスCOH(K)のばらつきに応じて適応的に制御することとした。第2の実施形態では、コヒーレンスCOH(K)のばらつきを表す指標として分散を用いている。 In the second embodiment, in order to eliminate such inconvenience, the hangover counter initialization threshold Ψ is set by using the feature that the variation of the coherence COH (K) in the target speech section becomes small when background noise is superimposed. The adaptive control is performed according to the variation of the coherence COH (K) in the target speech section. In the second embodiment, dispersion is used as an index representing variation in coherence COH (K).
(B−1)第2の実施形態の構成
図5は、第2の実施形態に係る音声信号処理装置の構成を示すブロック図であり、上述した第1の実施形態に係る図1との同一、対応部分には同一符号を付して示している。
(B-1) Configuration of Second Embodiment FIG. 5 is a block diagram showing a configuration of an audio signal processing device according to the second embodiment, which is the same as FIG. 1 according to the first embodiment described above. Corresponding parts are denoted by the same reference numerals.
図5において、第2の実施形態に係る音声信号処理装置1Aは、第1の実施形態と同様な構成に加え、ハングオーバーカウンタ初期化閾値制御部17を有する。第1の実施形態と同様な構成の機能説明は省略する。
In FIG. 5, the audio
ハングオーバーカウンタ初期化閾値制御部17は、コヒーレンスCOH(K)と、判定結果変数VAD_RES(K)とに基づき、目的音声区間におけるコヒーレンスの分散を算出し、算出した分散に基づいて、ハングオーバーカウンタ初期化閾値Ψを定めて目的音声区間検出・ハングオーバー付与部15に設定するものである。
The hangover counter initialization
上述したように、背景雑音が重畳されると、目的音声区間におけるコヒーレンスの極大値は小さくなり、極小値は大きくなることから、目的音声区間ではコヒーレンスの分散が小さくなるといえる。従って、目的音声区間におけるコヒーレンスの分散が大きければ背景雑音は重畳されておらず、反対に分散が小さければ背景雑音が重畳されている、という判定が可能となる。従って、目的音声区間におけるコヒーレンスの分散の値に応じて、ハングオーバーカウンタ初期化閾値Ψを制御すれば、背景雑音重畳時の目的音声区間の誤判定を改善することができる。 As described above, when background noise is superimposed, the maximum value of coherence in the target speech section becomes small and the minimum value becomes large. Therefore, it can be said that the coherence variance becomes small in the target speech section. Therefore, it is possible to determine that the background noise is not superimposed if the coherence variance in the target speech section is large, and that the background noise is superimposed if the variance is small. Therefore, if the hangover counter initialization threshold Ψ is controlled in accordance with the coherence variance value in the target speech section, erroneous determination of the target speech section when background noise is superimposed can be improved.
図6は、ハングオーバーカウンタ初期化閾値制御部17の内部構成を示すブロック図である。
FIG. 6 is a block diagram showing an internal configuration of the hangover counter initialization threshold
図6において、ハングオーバーカウンタ初期化閾値制御部17は、コヒーレンス・判定結果受信部31、閾値更新制御部32、分散計算部33、ハングオーバーカウンタ初期化閾値照合部34、初期化閾値記憶部35及びハングオーバーカウンタ初期化閾値送信部36を有する。
In FIG. 6, the hangover counter initialization
コヒーレンス・判定結果受信部31は、コヒーレンス計算部13からコヒーレンスCOH(K)を目的音声区間検出・ハングオーバー付与部15から判定結果変数VAD_RES(K)を受け取るものである。
The coherence / determination
閾値更新制御部32は、判定結果変数VAD_RES(K)を参照して目的音声区間か否かを判定し、目的音声区間でのみ、分散計算部33、ハングオーバーカウンタ初期化閾値照合部34及び初期化閾値記憶部35を有効に機能させるものである。閾値更新制御部32は、非目的音声区間では、直前のハングオーバーカウンタ初期化閾値を維持させるものである。
The threshold
分散計算部33は、目的音声区間におけるコヒーレンスの分散variance(K)を計算するものである。ここで、最古サンプルまでの時間差は変動することがあるが所定サンプル数のコヒーレンスを用いて分散を計算するようにしても良く、また、サンプル数は変動することがあるが所定期間内のサンプルを用いて分散を計算するようにしても良い。
The
初期化閾値記憶部35は、コヒーレンスの分散varianceの範囲と、ハングオーバーカウンタ初期化閾値Ψの値とを対応付けて記憶しているものである。図7は、初期化閾値記憶部35の構成例を示す説明図である。分散varianceがP以上Q未満の範囲は、ハングオーバーカウンタ初期化閾値Ψの値としてδが対応付けられ、分散varianceがQ以上R未満の範囲は、ハングオーバーカウンタ初期化閾値Ψの値としてε(>δ)が対応付けられ、分散varianceがR以上S未満の範囲は、ハングオーバーカウンタ初期化閾値Ψの値としてζ(>ε)が対応付けられている。
The initialization threshold
以上のような大小関係にすることにより、分散が小さい(背景雑音が重畳されている)場合には、ハングオーバーカウンタ初期化閾値Ψを小さくすることができ、目的音声区間中でのハングオーバー効果が損なわれることを防止できる。 With the above magnitude relationship, when the variance is small (background noise is superimposed), the hangover counter initialization threshold Ψ can be reduced, and the hangover effect in the target speech period can be reduced. Can be prevented from being damaged.
ハングオーバーカウンタ初期化閾値照合部34は、分散計算部33が計算したコヒーレンスの分散variance(K)をキーとして、初期化閾値記憶部35を照合し、その分散variance(K)の値が属する範囲に対応付けられているハングオーバーカウンタ初期化閾値Ψの値を取り出すものである。
The hangover counter initialization threshold
ハングオーバーカウンタ初期化閾値送信部36は、ハングオーバーカウンタ初期化閾値照合部34が得たハングオーバーカウンタ初期化閾値Ψの値、若しくは、直前(K−1)フレームのハングオーバーカウンタ初期化閾値Ψの値を、目的音声区間検出・ハングオーバー付与部15に送信するものである。
The hangover counter initialization threshold
第2の実施形態の目的音声区間検出・ハングオーバー付与部15は、ハングオーバーカウンタ初期化閾値制御部17からのハングオーバーカウンタ初期化閾値Ψ(K)を適用して、ハングオーバー付与機能を実行するものである。
The target speech section detection /
(B−2)第2の実施形態の動作
次に、第2の実施形態の音声信号処理装置1Aにおけるハングオーバーカウンタ初期化閾値照合部34の詳細動作を説明する。図8は、ハングオーバーカウンタ初期化閾値制御部17の動作を示すフローチャートである。
(B-2) Operation of Second Embodiment Next, the detailed operation of the hangover counter initialization threshold
コヒーレンス計算部13からのコヒーレンスCOH(K)及び目的音声区間検出・ハングオーバー付与部15からの判定結果変数VAD_RES(K)がコヒーレンス・判定結果受信部31によって受信される(ステップS400)。そして、閾値更新制御部32によって、判定結果変数VAD_RES(K)が参照されて、目的音声区間か否かが判定される(ステップS401)。この判定は、言い換えると、ハングオーバーカウンタ初期化閾値Ψを見直す目的音声区間か、直前のハングオーバーカウンタ初期化閾値Ψを継続(流用)する非目的音声区間かの判定になっている。
The coherence COH (K) from the
判定結果変数VAD_RES(K)が目的音声区間であることを表す値になっていると、分散計算部33によって、入力されたコヒーレンスCOH(K)も利用されて、目的音声区間におけるコヒーレンスの分散variance(K)が計算される(ステップS402)。そして、ハングオーバーカウンタ初期化閾値照合部34によって、初期化閾値記憶部35から、算出された分散variance(K)に応じたハングオーバーカウンタ初期化閾値Ψ(K)が得られる(ステップS403)。
If the determination result variable VAD_RES (K) is a value indicating that it is the target speech section, the
一方、判定結果変数VAD_RES(K)が目的音声区間であることを表す値になっていると、閾値更新制御部22によって、直前に適用していたが、今回のフレームのハングオーバーカウンタ初期化閾値Ψ(K)として設定される(ステップS404)。
On the other hand, if the determination result variable VAD_RES (K) is a value indicating that it is the target speech section, the threshold
以上のようにして、パラメータKで定まる現フレームについてのハングオーバーカウンタ初期化閾値Ψ(K)が得られると、ハングオーバーカウンタ初期化閾値送信部36によって、目的音声区間検出・ハングオーバー付与部15に送信され(ステップS405)、その後、次のフレームの処理に移行する(ステップS406)。
As described above, when the hangover counter initialization threshold value Ψ (K) for the current frame determined by the parameter K is obtained, the hangover counter initialization threshold
(B−3)第2の実施形態の効果
第2の実施形態によれば、第1の実施形態と同様な効果に加え、以下のような効果を奏することができる。
(B-3) Effects of Second Embodiment According to the second embodiment, the following effects can be obtained in addition to the same effects as those of the first embodiment.
第2の実施形態によれば、目的音声に対する背景雑音の重畳に応じて、ハングオーバーカウンタ初期化閾値を適切な値に設定できるので、過不足のないハングオーバー効果を得られるようになる。 According to the second embodiment, the hangover counter initialization threshold can be set to an appropriate value according to the superimposition of background noise on the target speech, so that a hangover effect without excess or deficiency can be obtained.
すなわち、第2の実施形態によれば、妨害音声の到来方位に関係なく、かつ、目的音声に対する背景雑音の重畳度合いに関係なく、過不足のないハングオーバー効果を奏することができる。 That is, according to the second embodiment, it is possible to achieve a hangover effect without excess or deficiency regardless of the arrival direction of the disturbing speech and regardless of the degree of the background noise superimposed on the target speech.
(C)他の実施形態
上記第1の実施形態では、非目的音声区間におけるコヒーレンスの瞬時値の微分係数のゼロクロスに基づいて、ハングオーバー長を設定したものを示したが、2次微分係数など、コヒーレンスの変化の頻度を表す他の特徴量に基づいてハングオーバー長を設定するようにしても良い。
(C) Other Embodiments In the first embodiment, the hangover length is set based on the zero cross of the differential coefficient of the instantaneous value of coherence in the non-target speech section. The hangover length may be set based on another feature amount representing the frequency of change in coherence.
上記第1の実施形態では、テーブル構成の記憶部を利用して、ゼロクロス値に対応するハングオーバー長を取得するものを示したが、ゼロクロス値から対応するハングオーバー長を取得する方法は、変換テーブルを利用する方法に限定されず、例えば、変換関数を利用する方法であっても良い。 In the first embodiment, the table configuration storage unit is used to obtain the hangover length corresponding to the zero-cross value. However, the method for obtaining the corresponding hangover length from the zero-cross value is a conversion. The method is not limited to a method using a table, and may be a method using a conversion function, for example.
上記各実施形態において、周波数領域の信号で処理していた処理を、可能ならば時間領域の信号で処理するようにしても良く、逆に、時間領域の信号で処理していた処理を、可能ならば周波数領域の信号で処理するようにしても良い。 In each of the above embodiments, the processing that was processed with the frequency domain signal may be performed with the time domain signal if possible, and conversely, the processing that was processed with the time domain signal is possible. In this case, processing may be performed using a frequency domain signal.
上記各実施形態では、一対のマイクが捕捉した信号を直ちに処理する場合を示したが、本発明の処理対象の音声信号はこれに限定されるものではない。例えば、記録媒体から読み出した一対の音声信号を処理する場合にも、本発明を適用することができ、また、対向装置から送信されてきた一対の音声信号を処理する場合にも、本発明を適用することができる。 In each of the above embodiments, a case has been described in which a signal captured by a pair of microphones is immediately processed. However, the audio signal to be processed of the present invention is not limited to this. For example, the present invention can be applied to processing a pair of audio signals read from a recording medium, and the present invention can also be applied to processing a pair of audio signals transmitted from the opposite device. Can be applied.
1…音声信号処理装置、m_1、m_2…マイク、10…FFT部、11…第1指向性形成部、12…第2の指向性形成部、13…コヒーレンス計算部、15…目的音声区間検出・ハングオーバー付与部、16…ハングオーバー長制御部、17…ハングオーバーカウンタ初期化閾値制御部、21…コヒーレンス・音声区間検出結果受信部、22…特徴量計算制御部、23…ハングオーバー長照合制御部、24…非目的音声区間特徴量計算部、25…ハングオーバー長照合部、26…記憶部、27…ハングオーバー長送信部、31…コヒーレンス・判定結果受信部、32…閾値更新制御部、33…分散計算部、34…ハングオーバーカウンタ初期化閾値照合部、35…初期化閾値記憶部、36…ハングオーバーカウンタ初期化閾値送信部。
DESCRIPTION OF
Claims (4)
入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、
入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、
上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、
上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させる目的音声区間検出・ハングオーバー付与部と、
非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御するハングオーバー長制御部と
を備えることを特徴とする音声信号処理装置。 In an audio signal processing apparatus that separates a target voice section and a non-target voice section from an input voice signal,
A first directivity forming unit that forms a first directivity signal having a directivity characteristic having a blind spot in a first predetermined direction by performing a delay subtraction process on the input audio signal;
By applying a delay subtraction process to the input audio signal, the second directivity forming a second directivity signal having a directivity characteristic having a blind spot in a second predetermined direction different from the first predetermined direction. Forming part;
A coherence calculator that obtains coherence using the first and second directional signals;
The coherence is compared with a target speech segment determination threshold to determine whether the input speech signal is a target speech segment arriving from a target direction or any other non-target speech segment, and the coherence and the above Even if the determination result by comparison using the target voice segment determination threshold is changed from the target voice segment to the non-target voice segment, the hangover length is larger than the target voice segment determination threshold. A target voice section detection / hangover giving unit for continuing the determination result of the target voice section;
A feature amount indicating the switching frequency of the coherence change tendency in the non-target speech section is obtained, and the hangover length applied by the target speech section detection / hangover providing unit is controlled according to the obtained feature amount. An audio signal processing device comprising: a hangover length control unit.
第1の指向性形成部は、入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成し、
第2の指向性形成部は、入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成し、
コヒーレンス計算部は、上記第1及び第2の指向性信号を用いてコヒーレンスを得、
目的音声区間検出・ハングオーバー付与部は、上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させ、
ハングオーバー長制御部は、非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御する
ことを特徴とする音声信号処理方法。 In an audio signal processing method for separating a target voice section and a non-target voice section from an input voice signal,
The first directivity forming unit forms a first directivity signal having a directivity characteristic having a blind spot in a first predetermined direction by performing a delay subtraction process on the input audio signal,
The second directivity forming unit performs delay subtraction processing on the input audio signal, thereby providing a second directivity having a directivity characteristic having a blind spot in a second predetermined direction different from the first predetermined direction. Form a signal,
The coherence calculation unit obtains coherence using the first and second directional signals,
The target speech segment detection / hangover assigning unit compares the coherence with the target speech segment determination threshold, and the input speech signal is a target speech segment arriving from the target direction or other non-target speech segment And comparing the coherence with a hangover provision threshold value greater than the target speech segment determination threshold value, and the determination result by the comparison using the target speech segment determination threshold value is from the target speech segment to the non-target speech segment. Even if it changes to, the judgment result of the target voice section is continued by the hangover length,
The hangover length control unit obtains a feature value indicating the switching frequency of the coherence change tendency in the non-target speech section, and the target speech section detection / hangover provision unit applies according to the obtained feature value. An audio signal processing method characterized by controlling the hangover length.
入力音声信号に遅延減算処理を施すことで、第1の所定方位に死角を有する指向性特性を付与した第1の指向性信号を形成する第1の指向性形成部と、
入力音声信号に遅延減算処理を施すことで、上記第1の所定方位とは異なる第2の所定方位に死角を有する指向性特性を付与した第2の指向性信号を形成する第2の指向性形成部と、
上記第1及び第2の指向性信号を用いてコヒーレンスを得るコヒーレンス計算部と、
上記コヒーレンスと目的音声区間判定閾値とを比較して、入力音声信号が、目的方位から到来している目的音声の区間か、それ以外の非目的音声区間かを判定すると共に、上記コヒーレンスと、上記目的音声区間判定閾値より大きいハングオーバー付与閾値とを比較して、上記目的音声区間判定閾値を用いた比較による判定結果が目的音声区間から非目的音声区間へ変化しても、ハングオーバー長だけ、目的音声区間という判定結果を継続させる目的音声区間検出・ハングオーバー付与部と、
非目的音声区間におけるコヒーレンスの変化傾向の切替り頻度を表す特徴量を得て、得られた特徴量に応じて、上記目的音声区間検出・ハングオーバー付与部が適用する上記ハングオーバー長を制御するハングオーバー長制御部と
して機能させることを特徴とする音声信号処理プログラム。 Computer
A first directivity forming unit that forms a first directivity signal having a directivity characteristic having a blind spot in a first predetermined direction by performing a delay subtraction process on the input audio signal;
By applying a delay subtraction process to the input audio signal, the second directivity forming a second directivity signal having a directivity characteristic having a blind spot in a second predetermined direction different from the first predetermined direction. Forming part;
A coherence calculator that obtains coherence using the first and second directional signals;
The coherence is compared with a target speech segment determination threshold to determine whether the input speech signal is a target speech segment arriving from a target direction or any other non-target speech segment, and the coherence and the above Even if the determination result by comparison using the target voice segment determination threshold is changed from the target voice segment to the non-target voice segment, the hangover length is larger than the target voice segment determination threshold. A target voice section detection / hangover giving unit for continuing the determination result of the target voice section;
A feature amount indicating the switching frequency of the coherence change tendency in the non-target speech section is obtained, and the hangover length applied by the target speech section detection / hangover providing unit is controlled according to the obtained feature amount. An audio signal processing program that functions as a hangover length control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200898A JP5971047B2 (en) | 2012-09-12 | 2012-09-12 | Audio signal processing apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012200898A JP5971047B2 (en) | 2012-09-12 | 2012-09-12 | Audio signal processing apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014056112A JP2014056112A (en) | 2014-03-27 |
JP5971047B2 true JP5971047B2 (en) | 2016-08-17 |
Family
ID=50613462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012200898A Active JP5971047B2 (en) | 2012-09-12 | 2012-09-12 | Audio signal processing apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5971047B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106328165A (en) * | 2015-06-30 | 2017-01-11 | 芋头科技(杭州)有限公司 | Robot autologous sound source elimination system |
CN109806498B (en) * | 2019-02-14 | 2022-11-04 | 深圳信息职业技术学院 | Method and device for processing electronic cochlear signal |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011133924A1 (en) * | 2010-04-22 | 2011-10-27 | Qualcomm Incorporated | Voice activity detection |
US20110288860A1 (en) * | 2010-05-20 | 2011-11-24 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for processing of speech signals using head-mounted microphone pair |
JP5970985B2 (en) * | 2012-07-05 | 2016-08-17 | 沖電気工業株式会社 | Audio signal processing apparatus, method and program |
-
2012
- 2012-09-12 JP JP2012200898A patent/JP5971047B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014056112A (en) | 2014-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8370140B2 (en) | Method of filtering non-steady lateral noise for a multi-microphone audio device, in particular a “hands-free” telephone device for a motor vehicle | |
JP6028502B2 (en) | Audio signal processing apparatus, method and program | |
US9426566B2 (en) | Apparatus and method for suppressing noise from voice signal by adaptively updating Wiener filter coefficient by means of coherence | |
EP2715725B1 (en) | Processing audio signals | |
JP5838861B2 (en) | Audio signal processing apparatus, method and program | |
US20110070926A1 (en) | Optimized method of filtering non-steady noise picked up by a multi-microphone audio device, in particular a "hands-free" telephone device for a motor vehicle | |
JP2011244232A (en) | Microphone array apparatus and program executed by the same | |
US9773510B1 (en) | Correcting clock drift via embedded sine waves | |
JP2012150237A (en) | Sound signal processing apparatus, sound signal processing method, and program | |
US10911881B1 (en) | Inter-channel level difference based acoustic tap detection | |
JP5971047B2 (en) | Audio signal processing apparatus, method and program | |
JP2013126026A (en) | Non-target sound suppression device, non-target sound suppression method and non-target sound suppression program | |
JP5970985B2 (en) | Audio signal processing apparatus, method and program | |
JP6221258B2 (en) | Signal processing apparatus, method and program | |
JP6763319B2 (en) | Non-purpose sound determination device, program and method | |
JP5772562B2 (en) | Objective sound extraction apparatus and objective sound extraction program | |
JP6631127B2 (en) | Voice determination device, method and program, and voice processing device | |
US10887709B1 (en) | Aligned beam merger | |
JP6102144B2 (en) | Acoustic signal processing apparatus, method, and program | |
JP6903947B2 (en) | Non-purpose sound suppressors, methods and programs | |
JP2016039398A (en) | Reverberation determination device and program | |
JP6213324B2 (en) | Audio signal processing apparatus and program | |
JP6252274B2 (en) | Background noise section estimation apparatus and program | |
JP2015025913A (en) | Voice signal processor and program | |
JP2015026956A (en) | Voice signal processing device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5971047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |