JP6784758B2 - ノイズ信号判定方法及び装置並びに音声ノイズ除去方法及び装置 - Google Patents
ノイズ信号判定方法及び装置並びに音声ノイズ除去方法及び装置 Download PDFInfo
- Publication number
- JP6784758B2 JP6784758B2 JP2018519388A JP2018519388A JP6784758B2 JP 6784758 B2 JP6784758 B2 JP 6784758B2 JP 2018519388 A JP2018519388 A JP 2018519388A JP 2018519388 A JP2018519388 A JP 2018519388A JP 6784758 B2 JP6784758 B2 JP 6784758B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- noise
- frame signal
- frame
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 230000005236 sound signal Effects 0.000 claims description 139
- 239000006185 dispersion Substances 0.000 claims description 75
- 238000001228 spectrum Methods 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 36
- 238000004590 computer program Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000005070 sampling Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/84—Detection of presence or absence of voice signals for discriminating voice from noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0324—Details of processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02168—Noise filtering characterised by the method used for estimating noise the estimation exclusively taking place during speech pauses
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Mobile Radio Communication Systems (AREA)
- Noise Elimination (AREA)
Description
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行って前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するステップと;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するステップと;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するステップと;を含む。
処理対象音声に含まれる解析対象音声信号セグメントを判定するステップと;
前記解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するステップと;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するステップと;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定して前記音声信号セグメントに含まれる幾つかのノイズフレームを取得するステップと;
前記音声信号セグメントに含まれる前記幾つかのノイズフレームに対応する平均パワーを判定し、そして前記ノイズフレームの前記平均パワーに基づき前記処理対象音声をノイズ除去するステップと;を含む。
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部と;
各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を、前記フレーム信号の前記パワースペクトルに基づき判定するよう構成される分散判定部と;
前記分散に基づき、前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するよう構成されるノイズ判定部と;を含む。
処理対象音声に含まれる解析対象音声信号セグメントを判定するよう構成されるセグメント判定部と;
前記解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部と;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するよう構成される分散判定部と;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定し、前記音声信号セグメントに含まれる幾つかのノイズフレームを取得するよう構成されるノイズ判定部と;
前記音声信号セグメントに含まれる前記幾つかのノイズフレームに対応する平均パワーを判定し、前記ノイズフレームの前記平均パワーに基づき前記処理対象音声をノイズ除去するよう構成される音声ノイズ除去部と;を含む。
処理対象音声の時間領域信号の振幅変動に基づき、処理対象音声における所定の閾値に満たない振幅変動の音声信号セグメントを、解析対象音声信号セグメントと判定するステップ;又は、
処理対象音声中の最初のN個のフレーム音声信号を、解析対象音声信号セグメントとして獲得するステップ。
フレーム信号のパワー値の第1の分散が第1の閾値T1を超えているか否かを判定し、肯定である場合、フレーム信号をノイズ信号と判定する。フレーム信号f1’を例にとれば、第1の分散Varhigh(f1’)が第1の閾値T1を超えているか否かが判定される。
第1の分散と第2の分散との間の差分が第2の閾値T2を超えているか否かを判定し、否定であれば、フレーム信号をノイズ信号と判定する。
各分散の大きさに応じて、解析対象音声信号セグメントのフレーム信号を順位付ける。
各周波数における順位付けられた各フレーム信号のパワー値の分散に基づき、音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する。
Varlow(fi’)>T1 (1)
|Varhigh(fi’)−Varlow(fi’)|>T2 (2)
Varhigh(f’i+1)−Varhigh(f’i−1)>T3 (3)
Varlow(f’i+1)−Varlow(f’i−1)>T4 (4)
なお、i∈(1,n)である。式(1)により、各フレーム信号fi’のパワー値の第1の分散が第1の閾値T1を超えているか否かを判定できる。否定であれば、フレーム信号fi’はノイズフレーム信号と判定される。判定された複数のノイズフレーム信号の集合が、ノイズ信号と判定される。
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部101と、
各周波数における音声信号セグメントの各フレーム信号のパワー値の分散を、フレーム信号のパワースペクトルに基づき判定するよう構成される分散判定部102と、
前記分散に基づき、音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するよう構成されるノイズ判定部103。
音声信号セグメントの各フレーム信号に対応する分散が第1の閾値を超えているか否かを判定し、否定であれば、フレーム信号をノイズ信号と判定するよう構成される。
各周波数におけるフレーム信号のパワー値を、パワースペクトルに対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合に分類し、
第1のパワー値集合に含まれるパワー値の第1の分散を判定するよう構成される。
第1の分散が第1の閾値を超えるか否かを判定し、
否定であれば、フレーム信号をノイズ信号と判定するよう構成される。
各周波数における各フレーム信号のパワー値を、フレーム信号の各パワー値に対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合と、第2の周波数間隔に対応する第2のパワー値集合とに分類し、第1の周波数間隔は第2の周波数間隔よりもその周波数が小さく、
第1のパワー値集合に含まれるパワー値の第1の分散を判定し、
第2のパワー値集合に含まれるパワー値の第2の分散を判定するよう構成される。
それに則して、ノイズ判定部103は:
各フレーム信号に対応する第1の分散と第2の分散との間の差分が第2の閾値を超えているか否かを判定し、
否定であれば、フレーム信号をノイズ信号と判定する。
処理対象音声に含まれる解析対象音声信号セグメントを判定するよう構成されるセグメント判定部201と、
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部202と、
各周波数における音声信号セグメントの各フレーム信号のパワー値の分散を、フレーム信号のパワースペクトルに基づき判定するよう構成される分散判定部203と、
分散に基づき、音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定し、音声信号セグメントに含まれる幾つかのノイズフレームを得るよう構成されるノイズ判定部205と、
音声信号セグメントに含まれる幾つかのノイズフレームに対応する平均パワーを判定し、ノイズフレームの平均パワーに基づき処理対象音声をノイズ除去するよう構成される音声ノイズ除去部10。
各分散の大きさに応じて、解析対象音声信号セグメントのフレーム信号を順位付けるよう構成される順位付け部204。
各周波数における順位付けられた各フレーム信号のパワー値の分散に基づき、音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するよう構成される。
以下、本発明の実施の態様の例を列挙する。
[第1の局面]
ノイズ信号判定方法であって:
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行って前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するステップと;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するステップと;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するステップと;を備える、
ノイズ信号判定方法。
[第2の局面]
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行って前記音声信号セグメントの各フレーム信号のパワースペクトルを取得する前記ステップよりも前に、
処理対象音声の時間領域信号の振幅変動に基づき、前記処理対象音声における所定の閾値に満たない振幅変動の音声信号セグメントを、前記解析対象音声信号セグメントと判定するステップ、又は、処理対象音声における最初のN個のフレーム音声信号を、前記解析対象音声信号セグメントとして獲得するステップを備える、
第1の局面に記載の方法。
[第3の局面]
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップは:
前記音声信号セグメントの各フレーム信号に対応する前記分散が第1の閾値を超えているか否かを判定するステップと;
否定であれば、当該フレーム信号をノイズ信号と判定するステップと;を備える、
第1の局面に記載の方法。
[第4の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップは:
各周波数における前記フレーム信号のパワー値を、前記パワースペクトルに対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合に分類するステップと;
前記第1のパワー値集合に含まれるパワー値の第1の分散を判定するステップと;を備え、
それに即して、前記分散が第1の閾値を超えているか否かを判定する前記ステップが、
前記第1の分散が前記第1の閾値を超えているか否かを判定するステップを備える、
第3の局面に記載の方法。
[第5の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップは:
各周波数における各フレーム信号のパワー値を、当該フレーム信号の各パワー値に対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合と、第2の周波数間隔に対応する第2のパワー値集合とに分類するステップであって、前記第1の周波数間隔は前記第2の周波数間隔よりもその周波数が小さい、分類するステップと;
前記第1のパワー値集合に含まれるパワー値の第1の分散を判定するステップと;
前記第2のパワー値集合に含まれるパワー値の第2の分散を判定するステップと;を備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップは:
各フレーム信号に対応する前記第1の分散と前記第2の分散との間の差分が第2の閾値を超えているか否かを判定するステップと;
否定であれば、当該フレーム信号をノイズ信号と判定するステップと;を備える、
第1の局面に記載の方法。
[第6の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップよりも後で、且つ、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップよりも前に:
各分散の大きさに応じて、前記解析対象音声信号セグメントの各フレーム信号を順位付けるステップ;をさらに備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップは、各周波数における順位付けられた各フレーム信号のパワー値の前記分散に基づき、前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するステップを備える、
第1の局面に記載の方法。
[第7の局面]
音声ノイズ除去方法であって:
処理対象音声に含まれる解析対象音声信号セグメントを判定するステップと;
前記解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するステップと;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するステップと;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定して前記音声信号セグメントに含まれる幾つかのノイズフレームを取得するステップと;
前記音声信号セグメントに含まれる前記幾つかのノイズフレームに対応する平均パワーを判定し、そして前記ノイズフレームの前記平均パワーに基づき前記処理対象音声をノイズ除去するステップと;を備える、
音声ノイズ除去方法。
[第8の局面]
処理対象音声に含まれる解析対象音声信号セグメントを判定する前記ステップが:
前記処理対象音声の時間領域信号の振幅変動に基づき、前記処理対象音声における所定の閾値に満たない振幅変動の音声信号セグメントを、前記解析対象音声信号セグメントと判定するステップ、又は、前記処理対象音声における最初のN個のフレーム音声信号を前記解析対象音声信号セグメントとして獲得するステップを備える、
第7の局面に記載の方法。
[第9の局面]
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップが:
前記音声信号セグメントの各フレーム信号に対応する前記分散が第1の閾値を超えているか否かを判定するステップと;
否定であれば、当該フレーム信号をノイズ信号と判定するステップと;を備える、
第7の局面に記載の方法。
[第10の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップは、各周波数における前記フレーム信号のパワー値を、前記パワースペクトルに対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合に分類するステップと、前記第1のパワー値集合に含まれるパワー値の第1の分散を判定するステップとを備え、
それに即して、前記分散が第1の閾値を超えるか否かを判定する前記ステップは、前記第1の分散が前記第1の閾値を超えるか否かを判定するステップを備える、
第9の局面に記載の方法。
[第11の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップは:
各周波数における各フレーム信号のパワー値を、当該フレーム信号の各パワー値に対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合と、第2の周波数間隔に対応する第2のパワー値集合とに分類するステップであって、前記第1の周波数間隔は前記第2の周波数間隔よりも小さい、分類するステップと;
前記第1のパワー値集合に含まれるパワー値の第1の分散を判定するステップと;
前記第2のパワー値集合に含まれるパワー値の第2の分散を判定するステップと;を備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップは、各フレーム信号に対応する前記第1の分散と前記第2の分散との間の差分が第2の閾値を超えているか否かを判定するステップと、否定であれば、当該フレーム信号をノイズ信号と判定するステップとを備える、
第7の局面に記載の方法。
[第12の局面]
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定する前記ステップよりも後、且つ、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップよりも前に、各分散の大きさに応じて、前記解析対象音声信号セグメントの各フレーム信号を順位付けるステップをさらに備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定する前記ステップは、各周波数における順位付けられた各フレーム信号のパワー値の前記分散に基づき、前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するステップを備える、
第7の局面に記載の方法。
[第13の局面]
ノイズ信号判定装置であって:
解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部と;
各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を、前記フレーム信号の前記パワースペクトルに基づき判定するよう構成される分散判定部と;
前記分散に基づき、前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定するよう構成されるノイズ判定部と;を備える、
ノイズ信号判定装置。
[第14の局面]
処理対象音声の時間領域信号の振幅変動に基づき、前記処理対象音声における所定の閾値に満たない振幅変動の音声信号セグメントを、前記解析対象音声信号セグメントと判定するよう、又は、処理対象音声における最初のN個のフレーム音声信号を、前記解析対象音声信号セグメントとして獲得するよう構成されるセグメント取得部をさらに備える、
第13の局面に記載の装置。
[第15の局面]
前記ノイズ判定部は、前記音声信号セグメントの各フレーム信号に対応する前記分散が第1の閾値を超えているか否かを判定し、否定であれば、当該フレーム信号をノイズ信号と判定するよう構成される、
第13の局面に記載の装置。
[第16の局面]
前記分散判定部は、各周波数における前記フレーム信号のパワー値を、前記パワースペクトルに対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合に分類し、前記第1のパワー値集合に含まれるパワー値の第1の分散を判定するよう構成されており、
それに即して、前記ノイズ判定部が、前記第1の分散が前記第1の閾値を超えるか否かを判定し、否定であれば、当該フレーム信号をノイズ信号と判定するよう構成される、
第13の局面に記載の装置。
[第17の局面]
前記分散判定部は、具体的に:
各周波数における各フレーム信号のパワー値を、当該フレーム信号の各パワー値に対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合と、第2の周波数間隔に対応する第2のパワー値集合とに分類し、前記第1の周波数間隔は前記第2の周波数間隔よりもその周波数が小さく;
前記第1のパワー値集合に含まれるパワー値の第1の分散を判定し;
前記第2のパワー値集合に含まれるパワー値の第2の分散を判定する;よう構成されており、
それに即して、前記ノイズ判定部は:
各フレーム信号に対応する前記第1の分散と前記第2の分散との間の差分が第2の閾値を超えているか否かを判定し、否定であれば、当該フレーム信号をノイズ信号と判定するよう構成される、
第13の局面に記載の装置。
[第18の局面]
音声ノイズ除去装置であって:
処理対象音声に含まれる解析対象音声信号セグメントを判定するよう構成されるセグメント判定部と;
前記解析対象音声信号セグメントの各フレーム信号にフーリエ変換を行い、前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するよう構成されるパワースペクトル取得部と;
各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を判定するよう構成される分散判定部と;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを判定し、前記音声信号セグメントに含まれる幾つかのノイズフレームを取得するよう構成されるノイズ判定部と;
前記音声信号セグメントに含まれる前記幾つかのノイズフレームに対応する平均パワーを判定し、前記ノイズフレームの前記平均パワーに基づき前記処理対象音声をノイズ除去するよう構成される音声ノイズ除去部と;を備える、
音声ノイズ除去装置。
100 ノイズ信号判定装置
101、202 パワースペクトル取得部
102、203 分散判定部
103、205 ノイズ判定部
200 音声ノイズ除去装置
201 セグメント判定部
204 順位付け部
Claims (6)
- 音声信号セグメント内のノイズ信号を特定する方法であって、
処理対象音声の時間領域信号の振幅変動に基づき、前記処理対象音声における所定の閾値に満たない振幅変動の音声信号セグメントを、前記音声信号セグメントと特定するステップと;
前記音声信号セグメントの各フレーム信号にフーリエ変換を行って前記音声信号セグメントの各フレーム信号のパワースペクトルを取得するステップであって、前記パワースペクトルは、異なる周波数に対応する複数のパワー値で構成される、ステップ(S101)と;
各フレーム信号の前記パワースペクトルに基づき、複数の周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を特定するステップ(S102)と;
前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定するステップ(S103)と;を備える、
ノイズ信号を特定する方法。 - 前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定する前記ステップは、
前記音声信号セグメントの各フレーム信号に対応する前記分散が第1の閾値を超えているか否かを特定するステップ(S1031)と;
否定であれば、当該フレーム信号をノイズ信号と特定するステップ(S1032)と;を備える、
請求項1に記載の方法。 - 各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を特定する前記ステップは、
各周波数における前記フレーム信号のパワー値を、前記パワースペクトルに対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合に分類するステップと;
前記第1のパワー値集合に含まれるパワー値の第1の分散を特定するステップ(S1022)と;を備え、
それに即して、前記分散が第1の閾値を超えているか否かを特定する前記ステップが、
前記第1の分散が前記第1の閾値を超えているか否かを特定するステップを備える、
請求項2に記載の方法。 - 各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を特定する前記ステップは、
各周波数における各フレーム信号のパワー値を、当該フレーム信号の各パワー値に対応する複数の周波数が属する複数の周波数間隔に応じて、少なくとも、第1の周波数間隔に対応する第1のパワー値集合と、第2の周波数間隔に対応する第2のパワー値集合とに分類するステップであって、前記第1の周波数間隔は前記第2の周波数間隔よりもその周波数が小さい、ステップ(S1021)と;
前記第1のパワー値集合に含まれるパワー値の第1の分散を特定するステップ(S1022)と;
前記第2のパワー値集合に含まれるパワー値の第2の分散を特定するステップ(S1023)と;を備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定する前記ステップは、
各フレーム信号に対応する前記第1の分散と前記第2の分散との間の差分が第2の閾値を超えているか否かを特定するステップと;
否定であれば、当該フレーム信号をノイズ信号と特定するステップと;を備える、
請求項1に記載の方法。 - 各フレーム信号の前記パワースペクトルに基づき、各周波数における前記音声信号セグメントの各フレーム信号のパワー値の分散を特定する前記ステップよりも後で、且つ、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定する前記ステップよりも前に、
各分散の大きさに応じて、前記音声信号セグメントの各フレーム信号を順位付けるステップ;をさらに備え、
それに即して、前記分散に基づき前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定する前記ステップは、各周波数における順位付けられた各フレーム信号のパワー値の前記分散に基づき、前記音声信号セグメントの各フレーム信号がノイズ信号であるか否かを特定するステップを備える、
請求項1に記載の方法。 - 請求項1乃至請求項5のいずれか1項に記載の方法を実行するように構成された複数のユニット(101、102、103)を備える、
音声信号セグメント内のノイズ信号を特定するための装置(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510670697.8 | 2015-10-13 | ||
CN201510670697.8A CN106571146B (zh) | 2015-10-13 | 2015-10-13 | 噪音信号确定方法、语音去噪方法及装置 |
PCT/CN2016/101444 WO2017063516A1 (zh) | 2015-10-13 | 2016-10-08 | 噪音信号确定方法、语音去噪方法及装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018534618A JP2018534618A (ja) | 2018-11-22 |
JP2018534618A5 JP2018534618A5 (ja) | 2020-07-09 |
JP6784758B2 true JP6784758B2 (ja) | 2020-11-11 |
Family
ID=58508605
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018519388A Active JP6784758B2 (ja) | 2015-10-13 | 2016-10-08 | ノイズ信号判定方法及び装置並びに音声ノイズ除去方法及び装置 |
Country Status (9)
Country | Link |
---|---|
US (1) | US10796713B2 (ja) |
EP (1) | EP3364413B1 (ja) |
JP (1) | JP6784758B2 (ja) |
KR (1) | KR102208855B1 (ja) |
CN (1) | CN106571146B (ja) |
ES (1) | ES2807529T3 (ja) |
PL (1) | PL3364413T3 (ja) |
SG (2) | SG10202005490WA (ja) |
WO (1) | WO2017063516A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220208175A1 (en) * | 2019-09-26 | 2022-06-30 | Yamaha Corporation | Information processing method, estimation model construction method, information processing device, and estimation model constructing device |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10504538B2 (en) * | 2017-06-01 | 2019-12-10 | Sorenson Ip Holdings, Llc | Noise reduction by application of two thresholds in each frequency band in audio signals |
KR102096533B1 (ko) * | 2018-09-03 | 2020-04-02 | 국방과학연구소 | 음성 구간을 검출하는 방법 및 장치 |
CN110689901B (zh) * | 2019-09-09 | 2022-06-28 | 苏州臻迪智能科技有限公司 | 语音降噪的方法、装置、电子设备及可读存储介质 |
KR20220018271A (ko) | 2020-08-06 | 2022-02-15 | 라인플러스 주식회사 | 딥러닝을 이용한 시간 및 주파수 분석 기반의 노이즈 제거 방법 및 장치 |
CN116134834A (zh) * | 2020-12-31 | 2023-05-16 | 深圳市韶音科技有限公司 | 生成音频的方法和系统 |
CN112967738B (zh) * | 2021-02-01 | 2024-06-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 人声检测方法、装置及电子设备和计算机可读存储介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2966452B2 (ja) * | 1989-12-11 | 1999-10-25 | 三洋電機株式会社 | 音声認識装置の雑音除去システム |
JPH0836400A (ja) * | 1994-07-25 | 1996-02-06 | Kokusai Electric Co Ltd | 音声状態判定回路 |
US6529868B1 (en) * | 2000-03-28 | 2003-03-04 | Tellabs Operations, Inc. | Communication system noise cancellation power signal calculation techniques |
US7299173B2 (en) * | 2002-01-30 | 2007-11-20 | Motorola Inc. | Method and apparatus for speech detection using time-frequency variance |
CN101197130B (zh) | 2006-12-07 | 2011-05-18 | 华为技术有限公司 | 声音活动检测方法和声音活动检测器 |
WO2008111462A1 (ja) | 2007-03-06 | 2008-09-18 | Nec Corporation | 雑音抑圧の方法、装置、及びプログラム |
EP2031583B1 (en) * | 2007-08-31 | 2010-01-06 | Harman Becker Automotive Systems GmbH | Fast estimation of spectral noise power density for speech signal enhancement |
JP2009216733A (ja) * | 2008-03-06 | 2009-09-24 | Nippon Telegr & Teleph Corp <Ntt> | フィルタ推定装置、信号強調装置、フィルタ推定方法、信号強調方法、プログラム、記録媒体 |
JP4327886B1 (ja) | 2008-05-30 | 2009-09-09 | 株式会社東芝 | 音質補正装置、音質補正方法及び音質補正用プログラム |
EP2546831B1 (en) | 2010-03-09 | 2020-01-15 | Mitsubishi Electric Corporation | Noise suppression device |
CN101853661B (zh) * | 2010-05-14 | 2012-05-30 | 中国科学院声学研究所 | 基于非监督学习的噪声谱估计与语音活动度检测方法 |
CN102314883B (zh) * | 2010-06-30 | 2013-08-21 | 比亚迪股份有限公司 | 一种判断音乐噪声的方法以及语音消噪方法 |
JP4937393B2 (ja) | 2010-09-17 | 2012-05-23 | 株式会社東芝 | 音質補正装置及び音声補正方法 |
CN101968957B (zh) * | 2010-10-28 | 2012-02-01 | 哈尔滨工程大学 | 一种噪声条件下的语音检测方法 |
CN102800322B (zh) * | 2011-05-27 | 2014-03-26 | 中国科学院声学研究所 | 一种噪声功率谱估计与语音活动性检测方法 |
CN103903629B (zh) * | 2012-12-28 | 2017-02-15 | 联芯科技有限公司 | 基于隐马尔科夫链模型的噪声估计方法和装置 |
CN103489446B (zh) * | 2013-10-10 | 2016-01-06 | 福州大学 | 复杂环境下基于自适应能量检测的鸟鸣识别方法 |
CN103632677B (zh) * | 2013-11-27 | 2016-09-28 | 腾讯科技(成都)有限公司 | 带噪语音信号处理方法、装置及服务器 |
-
2015
- 2015-10-13 CN CN201510670697.8A patent/CN106571146B/zh active Active
-
2016
- 2016-10-08 EP EP16854895.6A patent/EP3364413B1/en active Active
- 2016-10-08 WO PCT/CN2016/101444 patent/WO2017063516A1/zh active Application Filing
- 2016-10-08 PL PL16854895T patent/PL3364413T3/pl unknown
- 2016-10-08 SG SG10202005490WA patent/SG10202005490WA/en unknown
- 2016-10-08 JP JP2018519388A patent/JP6784758B2/ja active Active
- 2016-10-08 SG SG11201803004YA patent/SG11201803004YA/en unknown
- 2016-10-08 KR KR1020187013177A patent/KR102208855B1/ko active IP Right Grant
- 2016-10-08 ES ES16854895T patent/ES2807529T3/es active Active
-
2018
- 2018-04-12 US US15/951,928 patent/US10796713B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220208175A1 (en) * | 2019-09-26 | 2022-06-30 | Yamaha Corporation | Information processing method, estimation model construction method, information processing device, and estimation model constructing device |
US11875777B2 (en) * | 2019-09-26 | 2024-01-16 | Yamaha Corporation | Information processing method, estimation model construction method, information processing device, and estimation model constructing device |
Also Published As
Publication number | Publication date |
---|---|
CN106571146B (zh) | 2019-10-15 |
CN106571146A (zh) | 2017-04-19 |
ES2807529T3 (es) | 2021-02-23 |
US10796713B2 (en) | 2020-10-06 |
SG11201803004YA (en) | 2018-05-30 |
US20180293997A1 (en) | 2018-10-11 |
SG10202005490WA (en) | 2020-07-29 |
EP3364413A1 (en) | 2018-08-22 |
EP3364413B1 (en) | 2020-06-10 |
JP2018534618A (ja) | 2018-11-22 |
EP3364413A4 (en) | 2019-06-26 |
WO2017063516A1 (zh) | 2017-04-20 |
KR20180067608A (ko) | 2018-06-20 |
KR102208855B1 (ko) | 2021-01-29 |
PL3364413T3 (pl) | 2020-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6784758B2 (ja) | ノイズ信号判定方法及び装置並びに音声ノイズ除去方法及び装置 | |
US11670325B2 (en) | Voice activity detection using a soft decision mechanism | |
JP6999012B2 (ja) | 音声信号検出方法及び装置 | |
US20130035933A1 (en) | Audio signal processing apparatus and audio signal processing method | |
CN109801646B (zh) | 一种基于融合特征的语音端点检测方法和装置 | |
JP6236282B2 (ja) | 異常検出装置、異常検出方法、及びコンピュータ読み取り可能な記憶媒体 | |
US9997168B2 (en) | Method and apparatus for signal extraction of audio signal | |
WO2017045429A1 (zh) | 一种音频数据的检测方法、系统及存储介质 | |
JP2019053321A (ja) | 音声信号を検出するための方法および装置 | |
US20170249957A1 (en) | Method and apparatus for identifying audio signal by removing noise | |
JP2018534618A5 (ja) | ||
CN112331188A (zh) | 一种语音数据处理方法、系统及终端设备 | |
CN106847299B (zh) | 延时的估计方法及装置 | |
EP3254282A1 (en) | Determining features of harmonic signals | |
JPWO2012105386A1 (ja) | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム | |
CN106910494B (zh) | 一种音频识别方法和装置 | |
JP6724290B2 (ja) | 音響処理装置、音響処理方法、及び、プログラム | |
CN107919136B (zh) | 一种基于高斯混合模型的数字语音采样频率估计方法 | |
JP2013186383A (ja) | 音源分離装置、音源分離方法、およびプログラム | |
US10109298B2 (en) | Information processing apparatus, computer readable storage medium, and information processing method | |
CN114255785A (zh) | 音频检测方法、装置、终端及存储介质 | |
CN112863548A (zh) | 训练音频检测模型的方法、音频检测方法及其装置 | |
US20160217809A1 (en) | Speech processing apparatus, speech processing method, and computer program product | |
Das et al. | Detection of voiced, unvoiced and silence regions of assamese speech by using acoustic features | |
JP2016139025A (ja) | パラメータ決定装置、パラメータ決定方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191007 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200528 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200528 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200605 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201023 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6784758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |