JP2019219556A - Voice recognition support system - Google Patents
Voice recognition support system Download PDFInfo
- Publication number
- JP2019219556A JP2019219556A JP2018117802A JP2018117802A JP2019219556A JP 2019219556 A JP2019219556 A JP 2019219556A JP 2018117802 A JP2018117802 A JP 2018117802A JP 2018117802 A JP2018117802 A JP 2018117802A JP 2019219556 A JP2019219556 A JP 2019219556A
- Authority
- JP
- Japan
- Prior art keywords
- processing unit
- noise
- section
- target
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
Description
本発明は、複数のマイクロフォン(以下マイク)で得られた受信信号に含まれる受信音声信号から雑音成分を除去して目的音声信号を取り出すための音声認識支援システムに関する。 The present invention relates to a voice recognition support system for removing a noise component from a received voice signal included in a received signal obtained by a plurality of microphones (hereinafter referred to as microphones) to extract a target voice signal.
複数のマイクを用いて、それらのマイクで得られた受信信号に含まれる受信音声信号から雑音成分を除去して高S/N比の目的音声信号を取り出すために、図10に示すような音声認識支援システムが提案されている(非特許文献1)。 In order to extract a target audio signal having a high S / N ratio by removing noise components from a received audio signal included in a received signal obtained by the microphones using a plurality of microphones, an audio signal as shown in FIG. A recognition support system has been proposed (Non-Patent Document 1).
図10において、21L、21Rは所定間隔で配置されたマイクである。22はA/D変換処理部であり、マイク21L、21Rで受信した受信音声信号をA/D変換し所定時間単位のフレーム信号を生成する。
In FIG. 10, 21L and 21R are microphones arranged at predetermined intervals.
23は減算型ビームフォーミング処理部であり、マイク21L、21Rで受信した受信音声信号を取り込み特定方向以外の受信音声信号を雑音成分として算出する。24はその減算型ビームフォーミング処理部23で得られた雑音成分を時間領域から周波数領域へ変換するFFT(高速フーリエ変換)処理部である。
25は時変雑音スペクトル推定処理部であり、FFT処理部24から出力する雑音成分から時間経過で変化する雑音成分のスペクトルを推定する。26はA/D変換処理部22から出力する受信音声信号を時間領域から周波数領域へ変換するFFT処理部である。
27は目的音声信号抽出処理部であり、FFT処理部26から取り込まれる受信音声信号のスペクトルから時変雑音スペクトル推定処理部25で推定された雑音成分のスペクトルを減算することで目的音声信号のスペクトルを抽出する。
28は目的音声信号抽出処理部27から取り出された目的音声信号を周波数領域から時間領域の信号に逆変換するIFFT(逆高速フーリエ変換)処理部である。
この音声認識支援システムでは、マイク21L,21Rの受信音声信号から雑音成分を除去することで目的音声信号を取り出すことができる。
In this voice recognition support system, a target voice signal can be extracted by removing noise components from the voice signals received by the
ところが、図10の音声認識支援システムでは、時変雑音スペクトル推定処理部25で推定した時変雑音スペクトルによって、時間経過で変化する雑音成分に追従して受信音声信号のスペクトルから雑音成分のスペクトルを除去することができるが、環境雑音等の定常的な雑音のスペクトルや車の走行雑音などのスペクトルを推定することができず、定常雑音の除去性能が低く、S/N比の改善が望まれていた。また、受信音声信号に含まれる目的音声信号のレベルが小さい場合は、その目的音声信号が雑音成分に埋もれ、目的音声信号の音声認識率が低くなっていた。
However, in the speech recognition support system of FIG. 10, the time-varying noise spectrum estimated by the time-varying noise spectrum
本発明の目的は、時変雑音に加えて定常雑音を除去してS/N比を改善し、また入力する目的音声信号のレベルが小さくても当該目的音声信号の音声認識率を高くできるようにした音声認識支援システムを提供することである。 An object of the present invention is to improve the S / N ratio by removing stationary noise in addition to time-varying noise, and to increase the speech recognition rate of the target voice signal even when the level of the input target voice signal is low. The object of the present invention is to provide a speech recognition support system which has been developed.
上記目的を達成するために、請求項1にかかる発明は、受信信号を入力し、所定の信号レベルに調整した受信音声信号を出力する入力AGC処理部と、該入力AGC処理部から出力される前記受信音声信号を取り込んで特定方向以外の受信音声信号を雑音成分として取り出す減算型ビームフォーミング処理部と、該減算型ビームフォーミング処理部によって取り出された雑音成分を取り込んで時間経過で変化する雑音成分スペクトルを推定する時変雑音スペクトル推定処理部と、前記減算型ビームフォーミング処理部によって取り出された雑音成分を取り込んで定常的に発生する雑音成分スペクトルを推定する定常雑音スペクトル推定処理部と、前記入力AGC処理部から出力される前記受信音声信号を取り込んで前記時変雑音スペクトル推定処理部で推定された時変雑音スペクトルと前記定常雑音スペクトル推定処理部で推定された定常雑音成分スペクトルを取り除いて目的音声信号を抽出する目的音声信号抽出処理部と、該目的音声信号抽出処理部で抽出された前記目的音声信号を取り込み目的音声区間の信号レベルを調整する出力AGC処理部と、前記目的音声信号抽出処理部で抽出された前記目的音声信号の開始タイミングと終了タイミングから前記目的音声区間を検出し前記目的音声区間以外を雑音区間として検出する目的音声区間検出処理部とを備え、前記定常雑音スペクトル推定処理部は、前記目的音声区間検出処理部で検出された前記雑音区間で動作することを特徴とする。
請求項2にかかる発明は、請求項1に記載の音声認識支援システムにおいて、前記定常雑音スペクトル推定処理部は、前記雑音区間で検出された雑音成分のスペクトルを累算することで定常雑音スペクトルを推定することを特徴とする。
請求項3にかかる発明は、請求項1又は2に記載の音声認識支援システムにおいて、前記入力AGC処理部は、前記目的音声区間が第1設定時間より長いときレベル圧縮した前記受信信号を出力し、前記雑音区間が第2設定時間より長いときレベル増幅して前記受信音声信号のレベルが第1設定値を超えない範囲の前記受信音声信号を出力することを特徴とする。
請求項4にかかる発明は、請求項1、2又は3に記載の音声認識支援システムにおいて、前記出力AGC処理部は、前記出力AGC処理部に入力する前記目的音声信号のレベルが第2設定値を超えない範囲で前記目的音声信号を選択的にレベル増幅することを特徴とする。
請求項5にかかる発明は、請求項1、2、3又は4に記載の音声認識支援システムにおいて、前記目的音声信号の開始タイミングを調整する手段を備えていることを特徴とする。
To achieve the above object, the invention according to claim 1 provides an input AGC processing unit for receiving a received signal and outputting a received audio signal adjusted to a predetermined signal level, and an output from the input AGC processing unit. A subtractive beamforming processing unit that captures the received voice signal and extracts a received voice signal in a direction other than a specific direction as a noise component; and a noise component that captures the noise component extracted by the subtractive beamforming processing unit and changes over time. A time-varying noise spectrum estimating section for estimating a spectrum, a stationary noise spectrum estimating section for taking in a noise component extracted by the subtraction type beamforming processing section and estimating a noise component spectrum that constantly occurs, and The received voice signal output from the AGC processing unit is fetched to estimate the time-variant noise spectrum. A target audio signal extraction processing unit that extracts a target audio signal by removing the time-varying noise spectrum estimated by the processing unit and the stationary noise component spectrum estimated by the stationary noise spectrum estimation processing unit; and the target audio signal extraction processing unit. An output AGC processing unit that takes in the target audio signal extracted in step (a) and adjusts the signal level of the target audio section; and outputs the target audio from the start timing and end timing of the target audio signal extracted by the target audio signal extraction processing unit. A target voice section detection processing section for detecting a section and detecting a section other than the target voice section as a noise section, wherein the stationary noise spectrum estimation processing section operates in the noise section detected by the target voice section detection processing section. It is characterized by doing.
According to a second aspect of the present invention, in the speech recognition support system according to the first aspect, the stationary noise spectrum estimation processing section accumulates a spectrum of a noise component detected in the noise section to generate a stationary noise spectrum. It is characterized by estimation.
According to a third aspect of the present invention, in the voice recognition support system according to the first or second aspect, the input AGC processing section outputs the level-compressed reception signal when the target voice section is longer than a first set time. When the noise section is longer than a second set time, level amplification is performed to output the received voice signal in a range where the level of the received voice signal does not exceed the first set value.
According to a fourth aspect of the present invention, in the voice recognition support system according to any one of the first to third aspects, the output AGC processing unit is configured to set a level of the target audio signal input to the output AGC processing unit to a second set value. The target audio signal is selectively level-amplified within a range not exceeding.
According to a fifth aspect of the present invention, in the voice recognition support system according to the first, second, third, or fourth aspect, a means for adjusting a start timing of the target voice signal is provided.
本発明によれば、定常雑音スペクトル推定処理部を設け、その定常雑音スペクトル推定処理部を雑音区間で動作させるので、時変雑音推定と定常雑音推定を並行して処理することができ、あらゆる雑音を低減することができ、目的音声信号のS/N比を大きく改善できる。また、入力AGC処理部と出力AGC処理部を備えるので、入力する目的音声信号のレベルが小さくても目的音声信号の音声認識率を高くできる。 According to the present invention, since the stationary noise spectrum estimation processing unit is provided and the stationary noise spectrum estimation processing unit is operated in the noise section, the time-varying noise estimation and the stationary noise estimation can be processed in parallel, and any noise Can be reduced, and the S / N ratio of the target audio signal can be greatly improved. Further, since the input AGC processing unit and the output AGC processing unit are provided, the speech recognition rate of the target audio signal can be increased even if the level of the input target audio signal is low.
図1に本発明の1つの実施例の音声認識支援システムを示す。1L、1Rは所定間隔で配置されたLチャネル、Rチャネルのマイクである。2はA/D変換処理部であり、マイク1L、1Rで受信した受信信号をA/D変換することにより、所定時間単位のフレーム信号を生成する。3はA/D変換処理部2から取り出された受信信号のレベルを調整し、受信音声信号を出力する入力AGC処理部である。
FIG. 1 shows a speech recognition support system according to one embodiment of the present invention.
4は減算型ビームフォーミング処理部であり、入力AGC処理部3から出力する2個の受信音声信号を取り込み特定方向以外の受信音声信号を雑音成分として算出する。5はその減算型ビームフォーミング処理部4で得られた雑音成分を時間領域から周波数領域へ変換するFFT(高速フーリエ変換)処理部である。
6は時変雑音スペクトル推定処理部であり、FFT処理部5から取り込まれる雑音成分から時間経過で変化する時変雑音スペクトル(周波数とレベル)を推定する。7は定常雑音スペクトル推定処理部であり、FFT処理部5から出力する雑音成分によって定常的に発生する定常雑音スペクトルを推定する。
8は入力AGC処理部3から出力する受信音声信号を時間領域から周波数領域に変換するFFT処理部である。9は目的音声信号抽出処理部であり、時変雑音スペクトル推定処理部6で得られた時変雑音スペクトルと定常雑音スペクトル推定処理部7で得られた定常雑音スペクトルを取り込んで、FFT処理部8から取り込まれた受信音声信号のスペクトルから時変雑音のスペクトルと定常雑音のスペクトルを取り除くことで、目的音声信号のスペクトルを抽出する。
10は目的音声区間検出処理部であり、目的音声信号抽出処理部9で得られた目的音声信号のスペクトルを取り込んで、目的音声区間と雑音区間の境界を検出する。11は目的音声信号抽出処理部9から出力する目的音声信号を周波数領域から時間領域の信号に逆変換するIFFT(逆高速フーリエ変換)処理部である。
12は遅延処理部であり、目的音声区間検出処理部10において雑音区間と目的音声区間を検出する際に雑音区間から目的音声区間に切り替わるタイミングの誤差を補正する。13は遅延処理部12で遅延補正が行われた目的音声信号のレベルを調整する出力AGC処理部である。
以下、個々の処理部について説明する。図2は入力AGC処理部3の処理フローチャートを示す。A/D変換処理(S1)の次に受信信号に含まれる音声帯域以外の信号をハイパスフィルタ、ローパスフィルタによって除去し、受信音声信号を取り出す(S2)。そして受信音声信号のレベルが設定値Aを超えていればレベル圧縮を行う(S3,S4)。
Hereinafter, each processing unit will be described. FIG. 2 shows a processing flowchart of the input
また、目的音声区間検出処理部10による目的音声連続検出時間(目的音声区間)が設定時間T1を超えているときはレベル圧縮を行う(S5,S6)。しかし、そうでないときは、次に雑音連続検出時間(雑音区間)が設定時間T2を超えているかどうかを判定する(S7)。そして、雑音連続検出時間が設定時間T2を超えているときは目的音声信号のレベルが小さいと推定して、レベル増幅を行う(S8)。雑音連続検出時間が設定時間T2を超えていないときはそのままとする(S9)。そして、ステップS4,S6,S8に応じて受信音声信号のレベル変更をおこなう(S10)。
When the target voice continuation detection time (target voice section) by the target voice section
以上の処理により、目的音声区間が設定時間T1より長いとき受信音声信号のレベル圧縮が行われ、雑音区間が設定時間T2より長いとき受信音声信号のレベルが設定値Aを超えない範囲で受信音声信号のレベル増幅が行われる。 With the above processing, when the target voice section is longer than the set time T1, the level of the received voice signal is compressed, and when the noise section is longer than the set time T2, the level of the received voice signal does not exceed the set value A. Signal level amplification is performed.
図3(a)、(b)は減算型ビームフォーミング処理部4の処理の説明図、図3(b)はそのフローチャートである。マイク1Lとマイク1Rが図3(a)のように距離L1だけ離れて配置されていて、実線で示す目的音声と破線で示す雑音が両マイク1L,1Rで受信されたとすると、目的音声はマイク1Rに対してマイク1Lに到達する時間がdだけ遅延し、雑音はマイク1Lに対してマイク1Rに到達する時間がτだけ遅延するので、これを検出する(S11)。そして、検出した遅延時間d、τを用いて次の式(1)に示す演算を行うことにより、マイク1Lに入力する雑音成分glrとマイク1Rに入力する雑音成分grlを抽出する(S12)。これらの雑音成分glr、grlが雑音成分として出力する。lはマイク1Lの受信音声信号、rはマイク1Rの受信音声信号である。
FIGS. 3A and 3B are explanatory diagrams of the processing of the subtraction type
図4は時変雑音スペクトル推定処理部6の処理のフローチャートである。減算型ビームフォーミング処理部4で得られた雑音成分glr、grlをFFT処理(S21)した後、時変雑音スペクトル推定(S22)を行う。
FIG. 4 is a flowchart of the processing of the time-varying noise spectrum
時変雑音スペクトル推定値の算出式は次の式(2)ようになる。∧付きのN(ω)は周波数領域の推定された雑音成分であることを示す。G(ω)は減算型ビームフォーミング出力を時間領域から周波数領域に変換した直後の雑音成分のスペクトル、εは0を超えて、1より十分小さい値である。
The equation for calculating the time-varying noise spectrum estimation value is as shown in the following equation (2). N (ω) with ∧ indicates an estimated noise component in the frequency domain. G (ω) is the spectrum of the noise component immediately after the subtractive beamforming output is converted from the time domain to the frequency domain, and ε exceeds 0 and is a value sufficiently smaller than 1.
図5は定常雑音スペクトル推定処理部7の処理のフローチャートである。定常雑音スペクトル推定は、時変雑音スペクトル推定がリアルタイムで変化する雑音成分の推定であるのに対し、定常的に発生している雑音成分を目的音声区間検出処理部10で検出した雑音区間(減算型ビームフォーミングで処理しきれなかった推定雑音に含まれる残留目的音声成分を除く)で検出することで、雑音除去性能を向上させる処理である。時変雑音スペクトル推定結果を遅延(S31)させ、目的音声区間検出処理結果が雑音区間を示すとき(S32)、定常雑音スペクトル推定値を算出する(S33)。 FIG. 5 is a flowchart of the processing of the stationary noise spectrum estimation processing section 7. In the stationary noise spectrum estimation, while the time-varying noise spectrum estimation is an estimation of a noise component that changes in real time, a noise section in which a stationary noise component is detected by the target speech section detection processing unit 10 (subtraction) This is a process for improving the noise removal performance by detecting the residual target speech component included in the estimated noise that cannot be completely processed by the beamforming. The time-varying noise spectrum estimation result is delayed (S31), and when the target voice section detection processing result indicates a noise section (S32), a stationary noise spectrum estimation value is calculated (S33).
遅延処理S31は、目的音声区間検出処理によって雑音区間と目的音声区間の境界を検出する際に、雑音区間から目的音声区間の切り替わりのタイミング誤差を補正するために、音声区間への切り替わりタイミングより前の雑音スペクトルから定常雑音スペクトルを算出することで、残留目的音声成分が含まれることを防ぐ処理である。 When detecting the boundary between the noise section and the target voice section by the target voice section detection processing, the delay processing S31 is performed before the timing of switching to the voice section in order to correct the timing error of switching from the noise section to the target voice section. This is a process for calculating a stationary noise spectrum from the noise spectrum of the above to prevent the residual target speech component from being included.
定常雑音スペクトル推定値の算出式は次の累算式となる。αは平均化するための係数(0≦α≦1)である。(n)は現フレーム、(n−1)は1フレーム前のフレームを表す。右側の第2項は現フレームまでの定常雑音スペクトル推定値の累積値である。
The formula for calculating the stationary noise spectrum estimated value is the following accumulation formula. α is a coefficient for averaging (0 ≦ α ≦ 1). (N) represents the current frame, and (n-1) represents the previous frame. The second term on the right is the accumulated value of the stationary noise spectrum estimation values up to the current frame.
図6は目的音声信号抽出処理部9の処理フローチャートである。入力AGC処理部3の処理結果をFFT処理部8で時間領域から周波数領域の信号に処理(S41)した結果と、時変雑音スペクトル推定処理部6で推定した結果と、定常雑音スペクトル推定処理部7で処理した結果を取り込んで、目的音声信号抽出処理部9で目的音声信号のスペクトルを算出する(S42)。
FIG. 6 is a processing flowchart of the target audio signal
目的音声信号のスペクトルの推定値の算出式は次の式(4)となる。∧付きのS(ω)は周波数領域の目的音声信号、X(ω)はFFT処理部8から取り込まれる周波数領域の受信音声信号(目的音声信号と雑音成分を含む)を示す。β、γは係数(0≦β≦1、0≦γ≦1)である。
The calculation formula of the estimated value of the spectrum of the target audio signal is the following formula (4). S (ω) with ∧ indicates a target audio signal in the frequency domain, and X (ω) indicates a received audio signal (including the target audio signal and noise component) in the frequency domain taken in from the
図7は目的音声区間検出処理部10の処理のフローチャートである。ここでは、目的音声信号と雑音成分が含まれている受信音声信号から、目的音声区間と雑音区間を判別する。図8(a)に示すように、通常の場合は、受信音声信号のエントロピー(パワー)が閾値hを超えている場合はその超えている連続期間は目的音声区間、閾値hを下回っている連続期間は雑音区間となる。この目的音声区間は、目的音声信号の開始タイミングtaから、目的音声信号の終了タイミングtbまでの区間であり、その他の区間は雑音区間となる。目的音声区間検出処理部10は隣り合うこの2個のタイミングta,tbを検出して、入力AGC処理部3、遅延処理部12、出力AGC処理部13を制御する。
FIG. 7 is a flowchart of the processing of the target voice section
まず、目的音声信号抽出処理部9で得られた目的音声信号抽出結果を取り込んでそのエントロピーを算出(S51)する。そのエントロピーが閾値hよりも大きくなったときは、目的音声信号が検出された(タイミングta)として、ホールドタイムを設定する(S52,S53)。このホールドタイムは、一旦検出した目的音声信号の開始タイミングta以降に目的音声信号が検出されなくなっても、つまり雑音が検出されても、そのホールドタイムの期間中は雑音検出をマスクするためのものである。このようにして、検出した目的音声信号の開始タイミングtaからホールドタイムが終了するまでは、目的音声信号の終了が検出されても無視し音質劣化を防止する。このホールドタイムは、例えば100msec〜200msec程度に設定される。
First, the target audio signal extraction result obtained by the target audio signal
また、目的音声信号の開始タイミングtaが検出されてから目的音声信号の終了タイミングtbが検出されるまでの目的音声連続検出時間(目的音声区間)が設定時間T1を超えたら、入力AGC処理部3によってレベル圧縮を行う(S54,S55)。図8(b)に示すように、受信音声信号の全体のエントロピーが高い場合は、目的音声信号の他に雑音成分も閾値hを超えてしまうので、全部が目的音声信号と誤認識される。そこで、目的音声連続検出時間が設定時間T1を超えたら、受信音声信号の目的音声信号と雑音成分の識別が可能なように、入力AGC処理部3によって受信音声信号のレベル圧縮を行う。
If the target voice continuation detection time (target voice section) from when the start timing ta of the target voice signal is detected to when the end timing tb of the target voice signal is detected exceeds the set time T1, the input
また、目的音声連続検出時間が設定時間T1よりも短いときは、目的音声信号の開始タイミングtaの補正を行う(S56)。この補正は、タイミングtaを補正(実際のタイミングtaよりも前へ補正)して目的音声信号の検出処理に余裕を持たせるためのものである。また、その補正のための遅延時間の算出を直前フレームの目的音声信号について行い(S57)、遅延処理部12にその遅延時間を設定する。
When the target sound continuous detection time is shorter than the set time T1, the start timing ta of the target sound signal is corrected (S56). This correction is for correcting the timing ta (correcting the timing ta before the actual timing ta) so that the target audio signal detection processing has a margin. The delay time for the correction is calculated for the target audio signal of the immediately preceding frame (S57), and the delay time is set in the
一方、エントロピーが閾値h未満になったときは、ステップS52において、目的音声信号が検出されなくなったとして、ステップS53で設定されたホールドタイムが満了するのを待つ(S58)。そしてホールドタイムが満了したときに、目的音声区間終了タイミングtbが検出されてから次の目的音声区間開始タイミングtaが検出されるまでの雑音区間連続検出時間(雑音区間)が設定時間T2を超えている場合に、図2で説明した入力AGC処理部3においてレベル増幅を行う(S59,S60)。図8(c)に示すように目的音声信号が含まれていても受信音声信号のエントロピーが全体的に低く閾値hに達しない場合は、そのままでは全部が雑音成分として誤認識されてしまう。そこで、目的音声信号と雑音成分の識別が可能なように、受信音声信号のレベル増幅を行う。また、雑音区間連続検出時間が設定時間T2を超えない場合は、入力AGC処理部3におけるレベル変更は行わない(S61)。
On the other hand, if the entropy is less than the threshold value h, it is determined in step S52 that the target audio signal is no longer detected, and the control waits until the hold time set in step S53 expires (S58). When the hold time expires, the continuous detection period of noise section (noise section) from the detection of the target voice section end timing tb to the detection of the next target voice section start timing ta exceeds the set time T2. If there is, level amplification is performed in the input
図9は遅延処理部12と出力AGC処理部13の処理フローチャートである。目的音声信号抽出処理部9から出力し、IFFT処理部11で周波数領域から時間領域の信号に復元された目的音声信号は、目的音声区間検出処理部10で検出された雑音区間から目的音声区間への切り替わりのタイミングtaの誤差が遅延処理部12における遅延処理によって補正される(S71)。この遅延処理は、出力AGC処理部13での処理に合わせるために行われる。
FIG. 9 is a processing flowchart of the
そして、遅延処理された目的音声信号のレベルが設定値Bを超えているときは、出力AGC処理部12においてレベル圧縮が行われる(S72、S73、S74)。また、目的音声区間検出処理部10で目的音声区間が検出されているときは、出力AGC処理部13においてレベル増幅が行われる(S75、S76)が、目的音声区間が検出されていないときはそのままとなる(S75,S77)。このようにして、出力AGC処理部13は、入力する目的音声信号のレベルが設定値Bを超えない範囲で目的音声信号を選択的にレベル増幅する。
If the level of the target audio signal subjected to the delay processing exceeds the set value B, the output
以上から、本実施例の音声認識支援システムによれは、図3の実線の方向からマイク1L、1Rに入力する目的音声を、図2の破線で示す方向からマイク1L、1Rに入力する雑音に対して分離して取り出し、且つその目的音声を所定のレベルにS/N比を高くして調整することができ、音声認識支援に好適となる。
As described above, according to the voice recognition support system of the present embodiment, the target voice input to the
1L,1R:マイク、2:A/D変換処理部、3:入力AGC処理部、4:減算型ビームフォーミング処理部、5:FFT処理部、6:時変雑音スペクトル推定処理部、7:定常雑音スペクトル推定処理部、8:FFT処理部、9:目的音声信号抽出処理部、10:目的音声区間検出処理部、11:IFFT処理部、12:遅延処理部、13:出力AGC処理部 1L, 1R: microphone, 2: A / D conversion processing section, 3: input AGC processing section, 4: subtraction beamforming processing section, 5: FFT processing section, 6: time-varying noise spectrum estimation processing section, 7: stationary Noise spectrum estimation processing section, 8: FFT processing section, 9: target voice signal extraction processing section, 10: target voice section detection processing section, 11: IFFT processing section, 12: delay processing section, 13: output AGC processing section
Claims (5)
該入力AGC処理部から出力される前記受信音声信号を取り込んで特定方向以外の受信音声信号を雑音成分として取り出す減算型ビームフォーミング処理部と、
該減算型ビームフォーミング処理部によって取り出された雑音成分を取り込んで時間経過で変化する雑音成分スペクトルを推定する時変雑音スペクトル推定処理部と、
前記減算型ビームフォーミング処理部によって取り出された雑音成分を取り込んで定常的に発生する雑音成分スペクトルを推定する定常雑音スペクトル推定処理部と、
前記入力AGC処理部から出力される前記受信音声信号を取り込んで前記時変雑音スペクトル推定処理部で推定された時変雑音スペクトルと前記定常雑音スペクトル推定処理部で推定された定常雑音成分スペクトルを取り除いて目的音声信号を抽出する目的音声信号抽出処理部と、
該目的音声信号抽出処理部で抽出された前記目的音声信号を取り込み目的音声区間の信号レベルを調整する出力AGC処理部と、
前記目的音声信号抽出処理部で抽出された前記目的音声信号の開始タイミングと終了タイミングから前記目的音声区間を検出し前記目的音声区間以外を雑音区間として検出する目的音声区間検出処理部とを備え、
前記定常雑音スペクトル推定処理部は、前記目的音声区間検出処理部で検出された前記雑音区間で動作することを特徴とする音声認識支援システム。 An input AGC processing unit for receiving a received signal and outputting a received audio signal adjusted to a predetermined signal level;
A subtraction-type beamforming processing unit that takes in the received audio signal output from the input AGC processing unit and extracts a received audio signal in a direction other than a specific direction as a noise component;
A time-varying noise spectrum estimation processing unit that takes in the noise components extracted by the subtraction type beamforming processing unit and estimates a noise component spectrum that changes over time;
A steady-state noise spectrum estimation processing unit that captures the noise component extracted by the subtraction-type beamforming processing unit and estimates a noise component spectrum that constantly occurs.
It takes in the received voice signal output from the input AGC processing unit and removes the time-varying noise spectrum estimated by the time-varying noise spectrum estimation processing unit and the stationary noise component spectrum estimated by the stationary noise spectrum estimation processing unit. A target audio signal extraction processing unit for extracting a target audio signal by
An output AGC processing unit that takes in the target audio signal extracted by the target audio signal extraction processing unit and adjusts a signal level of a target audio section;
A target voice section detection processing section that detects the target voice section from the start timing and the end timing of the target voice signal extracted by the target voice signal extraction processing section and detects a section other than the target voice section as a noise section,
The speech recognition support system according to claim 1, wherein the stationary noise spectrum estimation processing section operates in the noise section detected by the target speech section detection processing section.
前記定常雑音スペクトル推定処理部は、前記雑音区間で検出された雑音成分のスペクトルを累算することで定常雑音スペクトルを推定することを特徴とする音声認識支援システム。 The speech recognition support system according to claim 1,
The speech recognition support system according to claim 1, wherein the stationary noise spectrum estimation processing unit estimates a stationary noise spectrum by accumulating a spectrum of a noise component detected in the noise section.
前記入力AGC処理部は、前記目的音声区間が第1設定時間より長いときレベル圧縮した前記受信信号を出力し、前記雑音区間が第2設定時間より長いときレベル増幅して前記受信音声信号のレベルが第1設定値を超えない範囲の前記受信音声信号を出力することを特徴とする音声認識支援システム。 The speech recognition support system according to claim 1 or 2,
The input AGC processing unit outputs the level-compressed received signal when the target voice section is longer than a first set time, and amplifies the level of the received voice signal when the noise section is longer than a second set time. Output the received voice signal within a range not exceeding a first set value.
前記出力AGC処理部は、前記出力AGC処理部に入力する前記目的音声信号のレベルが第2設定値を超えない範囲で前記目的音声信号を選択的にレベル増幅することを特徴とする音声認識支援システム。 The speech recognition support system according to claim 1, 2 or 3,
Speech recognition support, wherein the output AGC processor selectively amplifies the level of the target audio signal within a range where the level of the target audio signal input to the output AGC processor does not exceed a second set value. system.
前記目的音声信号の開始タイミングを調整する手段を備えていることを特徴とする音声認識支援システム。 The speech recognition support system according to claim 1, 2, 3, or 4,
A speech recognition support system comprising means for adjusting a start timing of the target speech signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018117802A JP7042169B2 (en) | 2018-06-21 | 2018-06-21 | Speech recognition support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018117802A JP7042169B2 (en) | 2018-06-21 | 2018-06-21 | Speech recognition support system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219556A true JP2019219556A (en) | 2019-12-26 |
JP7042169B2 JP7042169B2 (en) | 2022-03-25 |
Family
ID=69096457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018117802A Active JP7042169B2 (en) | 2018-06-21 | 2018-06-21 | Speech recognition support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042169B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537185A (en) * | 2005-04-21 | 2008-09-11 | エスアールエス・ラブス・インコーポレーテッド | System and method for reducing audio noise |
WO2017002525A1 (en) * | 2015-06-30 | 2017-01-05 | 日本電気株式会社 | Signal processing device, signal processing method, and signal processing program |
-
2018
- 2018-06-21 JP JP2018117802A patent/JP7042169B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537185A (en) * | 2005-04-21 | 2008-09-11 | エスアールエス・ラブス・インコーポレーテッド | System and method for reducing audio noise |
WO2017002525A1 (en) * | 2015-06-30 | 2017-01-05 | 日本電気株式会社 | Signal processing device, signal processing method, and signal processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7042169B2 (en) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8509451B2 (en) | Noise suppressing device, noise suppressing controller, noise suppressing method and recording medium | |
US10251005B2 (en) | Method and apparatus for wind noise detection | |
JP5805365B2 (en) | Noise estimation apparatus and method, and noise reduction apparatus using the same | |
US20110124380A1 (en) | Method and system for double-end talk detection, and method and system for echo elimination | |
KR101254876B1 (en) | Noise gate, sound collection device, and noise removal method | |
JP2009014937A (en) | Echo suppressing device, echo suppressing method and computer program | |
KR950034057A (en) | Noise reduction method and noise section detection method of voice signal | |
US20170325024A1 (en) | Speaker protection from overexcursion | |
CN110677796B (en) | Audio signal processing method and hearing aid | |
US20040247110A1 (en) | Methods and apparatus for improving voice quality in an environment with noise | |
US20100329474A1 (en) | Howling suppression device, howling suppression method, program, and integrated circuit | |
CN110634500A (en) | Method for calculating prior signal-to-noise ratio, electronic device and storage medium | |
JP2010112995A (en) | Call voice processing device, call voice processing method and program | |
CN111800725A (en) | Howling detection method and device, storage medium and computer equipment | |
KR20150079237A (en) | Apparatus and method for cancelling acoustic echo | |
JP3973929B2 (en) | Howling detection device | |
JP2008135933A (en) | Voice emphasizing processing system | |
JP7215541B2 (en) | SIGNAL PROCESSING DEVICE, REMOTE CONFERENCE DEVICE, AND SIGNAL PROCESSING METHOD | |
JP7042169B2 (en) | Speech recognition support system | |
CN112564655A (en) | Audio signal gain control method, device, equipment and storage medium | |
CN112802492B (en) | Method, device, chip and module equipment for inhibiting howling | |
KR20090098552A (en) | Apparatus and method for automatic gain control using phase information | |
JP2005157086A (en) | Speech recognition device | |
JP2014121070A5 (en) | ||
JP6295650B2 (en) | Audio signal processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20200220 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200408 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042169 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |