JP2023517973A - 音声符号化方法、装置、コンピュータ機器及びコンピュータプログラム - Google Patents
音声符号化方法、装置、コンピュータ機器及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2023517973A JP2023517973A JP2022554706A JP2022554706A JP2023517973A JP 2023517973 A JP2023517973 A JP 2023517973A JP 2022554706 A JP2022554706 A JP 2022554706A JP 2022554706 A JP2022554706 A JP 2022554706A JP 2023517973 A JP2023517973 A JP 2023517973A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- importance
- speech
- speech frame
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000004590 computer program Methods 0.000 title description 8
- 238000004364 calculation method Methods 0.000 claims description 80
- 230000008859 change Effects 0.000 claims description 77
- 230000006870 function Effects 0.000 claims description 52
- 238000001514 detection method Methods 0.000 claims description 43
- 230000002441 reversible effect Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 10
- 230000002829 reductive effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 18
- 230000005236 sound signal Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
符号化対象の音声フレーム、及び符号化対象の音声フレームと対応する後方音声フレームを取得するステップと、
符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、符号化対象の音声フレーム特徴に基づき符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップと、
後方音声フレームに対応する後方音声フレーム特徴を抽出し、後方音声フレーム特徴に基づき後方音声フレームに対応する後方音声フレームの重要性を獲得するステップと、
符号化対象の音声フレームの重要性と後方音声フレームの重要性とに基づき重要性傾向特徴を取得し、重要性傾向特徴を使用して符号化対象の音声フレームに対応する符号化ビットレートを決定するステップと、
符号化ビットレートに基づいて符号化対象の音声フレームを符号化し、符号化結果を獲得するステップと、を含む。
符号化ビットレートをインタフェースを介して標準エンコーダに導入し、符号化結果を獲得するステップであって、標準エンコーダは符号化ビットレートを使用して符号化対象の音声フレームを符号化することに用いられる、ステップを含む。
符号化対象の音声フレーム、及び符号化対象の音声フレームと対応する後方音声フレームを取得することに用いられる音声フレーム取得モジュールと、
符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、符号化対象の音声フレーム特徴に基づき符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得することに用いられる第1重要性計算モジュールと、
後方音声フレームに対応する後方音声フレーム特徴を抽出し、後方音声フレーム特徴に基づき後方音声フレームに対応する後方音声フレームの重要性を獲得することに用いられる第2重要性計算モジュールと、
符号化対象の音声フレームの重要性と後方音声フレームの重要性とに基づき重要性傾向特徴を取得し、重要性傾向特徴を使用して符号化対象の音声フレームに対応する符号化ビットレートを決定することに用いられるビットレート計算モジュールと、
符号化ビットレートに基づいて符号化対象の音声フレームを符号化し、符号化結果を獲得することに用いられる符号化モジュールと、を含む。
符号化対象の音声フレーム、及び符号化対象の音声フレームと対応する後方音声フレームを取得するステップと、
符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、符号化対象の音声フレーム特徴に基づき符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップと、
後方音声フレームに対応する後方音声フレーム特徴を抽出し、後方音声フレーム特徴に基づき後方音声フレームに対応する後方音声フレームの重要性を獲得するステップと、
符号化対象の音声フレームの重要性と後方音声フレームの重要性とに基づき重要性傾向特徴を取得し、重要性傾向特徴を使用して符号化対象の音声フレームに対応する符号化ビットレートを決定するステップと、
符号化ビットレートに基づいて符号化対象の音声フレームを符号化し、符号化結果を獲得するステップと、を実行させる。
符号化対象の音声フレーム、及び符号化対象の音声フレームと対応する後方音声フレームを取得するステップと、
符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、符号化対象の音声フレーム特徴に基づき符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップと、
後方音声フレームに対応する後方音声フレーム特徴を抽出し、後方音声フレーム特徴に基づき後方音声フレームに対応する後方音声フレームの重要性を獲得するステップと、
符号化対象の音声フレームの重要性と後方音声フレームの重要性とに基づき重要性傾向特徴を取得し、重要性傾向特徴を使用して符号化対象の音声フレームに対応する符号化ビットレートを決定するステップと、
符号化ビットレートに基づいて符号化対象の音声フレームを符号化し、符号化結果を獲得するステップと、を実現させる。
音声フレーム取得モジュール1302は、符号化対象の音声フレーム、及び符号化対象の音声フレームと対応する後方音声フレームとを取得することに用いられる。
1204 サーバ
1206 端末
1300 音声符号化装置
1302 音声フレーム取得モジュール
1304 第1重要性計算モジュール
1306 第2重要性計算モジュール
1308 ビットレート計算モジュール
1310 符号化モジュール
Claims (20)
- 音声符号化方法であって、コンピュータ機器により実行され、前記方法は、
符号化対象の音声フレーム及び前記符号化対象の音声フレームに対応する後方音声フレームを取得するステップと、
前記符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、前記符号化対象の音声フレーム特徴に基づき前記符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップと、
前記後方音声フレームに対応する後方音声フレーム特徴を抽出し、前記後方音声フレーム特徴に基づき前記後方音声フレームに対応する後方音声フレームの重要性を獲得するステップと、
前記符号化対象の音声フレームの重要性及び前記後方音声フレームの重要性に基づき重要性傾向特徴を取得し、前記重要性傾向特徴を使用して前記符号化対象の音声フレームに対応する符号化ビットレートを決定するステップであって、前記重要性傾向特徴により特徴付けられた重要性傾向の強さによって、各符号化対象の音声フレームに対応する符号化ビットレートを適応的に制御する、ステップと、
前記符号化ビットレートに基づいて前記符号化対象の音声フレームを符号化し、符号化結果を獲得するステップと、を含むことを特徴とする音声符号化方法。 - 前記符号化対象の音声フレーム特徴及び前記後方音声フレーム特徴は音声開始フレーム特徴と非音声フレーム特徴とのうちの少なくとも1つを含み、前記音声開始フレーム特徴と非音声フレーム特徴との抽出は、
抽出対象の音声フレームを取得するステップであって、前記抽出対象の音声フレームは前記符号化対象の音声フレームと前記後方音声フレームとのうちの少なくとも1つである、ステップと、
前記抽出対象の音声フレームに基づき音声区間検出を行い、音声区間検出結果を獲得するステップと、
前記音声区間検出結果が音声開始端点である場合、前記抽出対象の音声フレームに対応する音声開始フレーム特徴が第1目標値であることと、前記抽出対象の音声フレームに対応する非音声フレーム特徴が第2目標値であることとのうちの少なくとも1つを決定するステップと、
前記音声区間検出結果が非音声開始端点である場合、前記抽出対象の音声フレームに対応する音声開始フレーム特徴が前記第2目標値であることと、前記抽出対象の音声フレームに対応する非音声フレーム特徴が前記第1目標値であることとのうちの少なくとも1つを決定するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記符号化対象の音声フレーム特徴と前記後方音声フレーム特徴とはエネルギー変化特徴を含み、前記エネルギー変化特徴の抽出は、
抽出対象の音声フレームを取得するステップであって、前記抽出対象の音声フレームは前記符号化対象の音声フレームと前記後方音声フレームとのうちの少なくとも1つである、ステップと、
前記抽出対象の音声フレームに対応する前方音声フレームを取得し、前記抽出対象の音声フレームに対応する抽出対象のフレームエネルギーを計算し、かつ前記前方音声フレームに対応する前方フレームエネルギーを計算するステップと、
前記抽出対象のフレームエネルギーと前記前方フレームエネルギーとの比率を計算し、比率結果に基づいて前記抽出対象の音声フレームに対応するエネルギー変化特徴を決定するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記した前記抽出対象の音声フレームに対応する抽出対象のフレームエネルギーを計算するステップは、
前記抽出対象の音声フレームに基づきデータサンプリングを行い、各サンプルポイントデータ値及びサンプルポイントの数を獲得するステップと、
前記各サンプルポイントデータ値の二乗和を計算し、かつ前記二乗和と前記サンプルポイントの数との比率を計算し、前記抽出対象のフレームエネルギーを獲得するステップと、を含むことを特徴とする請求項3に記載の方法。 - 前記符号化対象の音声フレーム特徴と前記後方音声フレーム特徴とはピッチ周期突然変化フレーム特徴を含み、前記ピッチ周期突然変化フレーム特徴の抽出は、
抽出対象の音声フレームを取得するステップであって、前記抽出対象の音声フレームは前記符号化対象の音声フレームと前記後方音声フレームとのうちの少なくとも1つである、ステップと、
前記抽出対象の音声フレームに対応する前方音声フレームを取得し、前記抽出対象の音声フレームと前記前方音声フレームとのピッチ周期を検出し、抽出対象のピッチ周期と前方ピッチ周期とを獲得するステップと、
前記抽出対象のピッチ周期と前記前方ピッチ周期とに基づいてピッチ周期変化程度を計算し、前記ピッチ周期変化程度に基づき前記抽出対象の音声フレームに対応するピッチ周期突然変化フレーム特徴を決定するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記した前記符号化対象の音声フレーム特徴に基づき前記符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップは、
前記符号化対象の音声フレーム特徴から順方向符号化対象の音声フレーム特徴を決定し、前記順方向符号化対象の音声フレーム特徴に対して加重計算を行い、順方向符号化対象の音声フレームの重要性を獲得するステップであって、前記順方向符号化対象の音声フレーム特徴は、音声開始フレーム特徴、エネルギー変化特徴及びピッチ周期突然変化フレーム特徴のうちの少なくとも1つを含む、ステップと、
前記符号化対象の音声フレーム特徴から逆方向符号化対象の音声フレーム特徴を決定し、前記逆方向符号化対象の音声フレーム特徴に基づいて逆方向符号化対象の音声フレームの重要性を決定するステップであって、前記逆方向符号化対象の音声フレーム特徴は非音声フレーム特徴を含む、ステップと、
前記順方向符号化対象の音声フレームの重要性と予め設定された順方向重みとに基づき順方向重要性を計算して獲得し、前記逆方向符号化対象の音声フレームの重要性と予め設定された逆方向重みとに基づき逆方向重要性を計算して獲得し、前記順方向重要性と前記逆方向重要性とに基づき、前記符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記した前記符号化対象の音声フレームの重要性及び前記後方音声フレームの重要性に基づき重要性傾向特徴を取得し、前記重要性傾向特徴を使用して前記符号化対象の音声フレームに対応する符号化ビットレートを決定するステップは、
前方音声フレームの重要性を取得し、前記前方音声フレームの重要性、前記符号化対象の音声フレームの重要性及び前記後方音声フレームの重要性に基づき、目標重要性傾向特徴を取得し、前記目標重要性傾向特徴を使用して前記符号化対象の音声フレームに対応する符号化ビットレートを決定するステップを含む、請求項1に記載の方法。 - 前記した前記符号化対象の音声フレームの重要性及び前記後方音声フレームの重要性に基づき重要性傾向特徴を取得し、前記重要性傾向特徴を使用して前記符号化対象の音声フレームに対応する符号化ビットレートを決定するステップは、
前記符号化対象の音声フレームの重要性と前記後方音声フレームの重要性とに基づき重要性差異程度と重要性平均程度とを計算するステップと、
前記重要性差異程度と前記重要性平均程度とに基づいて前記符号化対象の音声フレームに対応する符号化ビットレートを計算して獲得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記符号化対象の音声フレームの重要性と前記後方音声フレームの重要性とに基づき重要性差異程度とを計算するステップは、
前記符号化対象の音声フレームの重要性と予め設定された第1重みとの第1加重値を計算し、かつ前記後方音声フレームの重要性と予め設定された第2重みとの第2加重値を計算するステップと、
前記第1加重値と前記第2加重値とに基づき目標加重値を計算して獲得し、前記目標加重値と前記符号化対象の音声フレームの重要性との差分を計算し、前記重要性差異程度を獲得するステップと、を含むことを特徴とする請求項8に記載の方法。 - 前記した前記符号化対象の音声フレームの重要性と前記後方音声フレームの重要性とに基づき重要性平均程度とを計算するステップは、
前記符号化対象の音声フレームと前記後方音声フレームとのフレーム数を取得するステップと、
前記符号化対象の音声フレームの重要性と前記後方音声フレームの重要性とを統計して統合重要性を獲得し、かつ前記統合重要性と前記フレーム数との比率を計算し、前記重要性平均程度を獲得するステップと、を含むことを特徴とする請求項8に記載の方法。 - 前記した前記重要性差異程度と前記重要性平均程度とに基づいて前記符号化対象の音声フレームに対応する符号化ビットレートを計算して獲得するステップは、
第1ビットレート計算関数と第2ビットレート計算関数とを取得するステップと、
前記重要性平均程度と前記第1ビットレート計算関数とを使用して第1ビットレートを計算して獲得し、かつ前記重要性差異程度と前記第2ビットレート計算関数とを使用して第2ビットレートを計算して獲得し、前記第1ビットレートと第2ビットレートとに基づいて統合ビットレートを決定するステップであって、前記第1ビットレートは前記重要性平均程度に比例する関係を有し、前記第2ビットレートは前記重要性差異程度に比例する関係を有する、ステップと、
予め設定されたビットレート上限値と予め設定されたビットレート下限値とを取得し、前記予め設定されたビットレート上限値、予め設定されたビットレート下限値及び前記統合ビットレートに基づき、前記符号化ビットレートを決定するステップと、を含むことを特徴とする請求項8に記載の方法。 - 前記した前記予め設定されたビットレート上限値、予め設定されたビットレート下限値及び前記統合ビットレートに基づき、前記符号化ビットレートを決定するステップは、
前記予め設定されたビットレート上限値と前記統合ビットレートとを比較するステップと、
前記統合ビットレートが前記予め設定されたビットレート上限値よりも小さい場合、前記予め設定されたビットレート下限値と前記統合ビットレートとを比較するステップと、
前記統合ビットレートが前記予め設定されたビットレート下限値よりも大きい場合、前記統合ビットレートを前記符号化ビットレートとするステップと、を含むことを特徴とする請求項11に記載の方法。 - 音声符号化装置であって、前記装置は、
符号化対象の音声フレーム、及び前記符号化対象の音声フレームに対応する後方音声フレームを取得することに用いられる音声フレーム取得モジュールと、
前記符号化対象の音声フレームに対応する符号化対象の音声フレーム特徴を抽出し、前記符号化対象の音声フレーム特徴に基づき前記符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を計算して獲得することに用いられる第1重要性計算モジュールと、
前記後方音声フレームに対応する後方音声フレーム特徴を抽出し、前記後方音声フレーム特徴に基づき前記後方音声フレームに対応する後方音声フレームの重要性を計算して獲得することに用いられる第2重要性計算モジュールと、
前記符号化対象の音声フレームの重要性及び前記後方音声フレームの重要性に基づき重要性傾向特徴を取得し、前記重要性傾向特徴を使用して前記符号化対象の音声フレームに対応する符号化ビットレートを決定することに用いられるビットレート計算モジュールであって、前記重要性傾向特徴により特徴付けられた重要性傾向の強さによって、各符号化対象の音声フレームに対応する符号化ビットレートを適応的に制御する、ビットレート計算モジュールと、
前記符号化ビットレートに基づいて前記符号化対象の音声フレームを符号化し、符号化結果を獲得することに用いられる符号化モジュールと、を含むことを特徴とする音声符号化装置。 - 前記符号化対象の音声フレーム特徴及び前記後方音声フレーム特徴は音声開始フレーム特徴と非音声フレーム特徴とのうちの少なくとも1つを含み、前記装置は、さらに、
抽出対象の音声フレームを取得することに用いられ、前記抽出対象の音声フレームは前記符号化対象の音声フレームと前記後方音声フレームとのうちの少なくとも1つであり、前記抽出対象の音声フレームに基づき音声区間検出を行い、音声区間検出結果を獲得し、前記音声区間検出結果が音声開始端点である場合、前記抽出対象の音声フレームに対応する音声開始フレーム特徴が第1目標値であることと、前記抽出対象の音声フレームに対応する非音声フレーム特徴が第2目標値であることとのうちの少なくとも1つを決定し、前記音声区間検出結果が非音声開始端点である場合、前記抽出対象の音声フレームに対応する音声開始フレーム特徴が前記第2目標値であることと、前記抽出対象の音声フレームに対応する非音声フレーム特徴が前記第1目標値であることとのうちの少なくとも1つを決定することに用いられる第1特徴抽出モジュールを含む、ことを特徴とする請求項13に記載の装置。 - 前記符号化対象の音声フレーム特徴と前記後方音声フレーム特徴とはエネルギー変化特徴を含み、前記装置は、さらに、
抽出対象の音声フレームを取得することに用いられ、前記抽出対象の音声フレームは前記符号化対象の音声フレームと前記後方音声フレームとのうちの少なくとも1つであり、前記抽出対象の音声フレームに対応する前方音声フレームを取得し、前記抽出対象の音声フレームに対応する抽出対象のフレームエネルギーを計算し、かつ前記前方音声フレームに対応する前方フレームエネルギーを計算し、前記抽出対象のフレームエネルギーと前記前方フレームエネルギーとの比率を計算し、比率結果に基づいて前記抽出対象の音声フレームに対応するエネルギー変化特徴を決定することに用いられる第2特徴抽出モジュールを含む、ことを特徴とする請求項13に記載の装置。 - 前記装置は、さらに、
前記抽出対象の音声フレームに基づきデータサンプリングを行い、各サンプルポイントデータ値及びサンプルポイントの数を獲得し、前記各サンプルポイントデータ値の二乗和を計算し、かつ前記二乗和と前記サンプルポイントの数との比率を計算し、前記抽出対象のフレームエネルギーを獲得することに用いられるフレームエネルギー計算モジュールを含む、ことを特徴とする請求項15に記載の装置。 - 前記符号化対象の音声フレーム特徴と前記後方音声フレーム特徴とはピッチ周期突然変化フレーム特徴を含み、前記装置は、さらに、
抽出対象の音声フレームを取得することに用いられ、前記抽出対象の音声フレームは前記符号化対象の音声フレーム又は前記後方音声フレームであり、前記抽出対象の音声フレームに対応する前方音声フレームを取得し、前記抽出対象の音声フレームと前記前方音声フレームとのピッチ周期を検出し、抽出対象のピッチ周期と前方ピッチ周期とを獲得し、前記抽出対象のピッチ周期と前記前方ピッチ周期とに基づいてピッチ周期変化程度を計算し、前記ピッチ周期変化程度に基づき前記抽出対象の音声フレームに対応するピッチ周期突然変化フレーム特徴を決定することに用いられる第3特徴抽出モジュールを含む、ことを特徴とする請求項13に記載の装置。 - 前記第1重要性計算モジュールは、
前記符号化対象の音声フレーム特徴から順方向符号化対象の音声フレーム特徴を決定し、前記順方向符号化対象の音声フレーム特徴に対して加重計算を行い、順方向符号化対象の音声フレームの重要性を獲得することに用いられる順方向計算ユニットであって、前記順方向符号化対象の音声フレーム特徴は、音声開始フレーム特徴、エネルギー変化特徴及びピッチ周期突然変化フレーム特徴のうちの少なくとも1つを含む、順方向計算ユニットと、
前記符号化対象の音声フレーム特徴から逆方向符号化対象の音声フレーム特徴を決定し、前記逆方向符号化対象の音声フレーム特徴に基づいて逆方向符号化対象の音声フレームの重要性を決定することに用いられる逆方向計算ユニットであって、前記逆方向符号化対象の音声フレーム特徴は非音声フレーム特徴を含む、逆方向計算ユニットと、
順方向符号化対象の音声フレームの重要性と逆方向符号化対象の音声フレームの重要性とに基づき、前記符号化対象の音声フレームに対応する符号化対象の音声フレームの重要性を獲得することに用いられる重要性計算ユニットと、を含むことを特徴とする請求項13に記載の装置。 - メモリと、プロセッサとを含み、前記メモリにコンピュータ可読命令が記憶され、前記コンピュータ可読命令が前記プロセッサにより実行されるときに、前記プロセッサに実行されるときに請求項1~12のいずれか1項に記載の方法のステップを実現させるコンピュータ機器。
- コンピュータ可読命令が記憶され、前記コンピュータ可読命令が1つ又は複数のプロセッサにより実行されるときに、1つ又は複数のプロセッサに実行されるときに請求項1~12のいずれか1項に記載の方法のステップを実現させる1つ又は複数の不揮発性記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010585545.9A CN112767953B (zh) | 2020-06-24 | 2020-06-24 | 语音编码方法、装置、计算机设备和存储介质 |
CN202010585545.9 | 2020-06-24 | ||
PCT/CN2021/095714 WO2021258958A1 (zh) | 2020-06-24 | 2021-05-25 | 语音编码方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023517973A true JP2023517973A (ja) | 2023-04-27 |
JP7471727B2 JP7471727B2 (ja) | 2024-04-22 |
Family
ID=75693048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022554706A Active JP7471727B2 (ja) | 2020-06-24 | 2021-05-25 | 音声符号化方法、装置、コンピュータ機器及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220270622A1 (ja) |
EP (1) | EP4040436A4 (ja) |
JP (1) | JP7471727B2 (ja) |
CN (1) | CN112767953B (ja) |
WO (1) | WO2021258958A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112767953B (zh) * | 2020-06-24 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 语音编码方法、装置、计算机设备和存储介质 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2568984C (en) * | 1991-06-11 | 2007-07-10 | Qualcomm Incorporated | Variable rate vocoder |
JPH05175941A (ja) * | 1991-12-20 | 1993-07-13 | Fujitsu Ltd | 符号化率可変伝送方式 |
TW271524B (ja) * | 1994-08-05 | 1996-03-01 | Qualcomm Inc | |
US20070036227A1 (en) * | 2005-08-15 | 2007-02-15 | Faisal Ishtiaq | Video encoding system and method for providing content adaptive rate control |
KR100746013B1 (ko) * | 2005-11-15 | 2007-08-06 | 삼성전자주식회사 | 무선 네트워크에서의 데이터 전송 방법 및 장치 |
JP4548348B2 (ja) * | 2006-01-18 | 2010-09-22 | カシオ計算機株式会社 | 音声符号化装置及び音声符号化方法 |
US20090319261A1 (en) * | 2008-06-20 | 2009-12-24 | Qualcomm Incorporated | Coding of transitional speech frames for low-bit-rate applications |
US8352252B2 (en) * | 2009-06-04 | 2013-01-08 | Qualcomm Incorporated | Systems and methods for preventing the loss of information within a speech frame |
JP5235168B2 (ja) | 2009-06-23 | 2013-07-10 | 日本電信電話株式会社 | 符号化方法、復号方法、符号化装置、復号装置、符号化プログラム、復号プログラム |
KR20140085453A (ko) | 2011-10-27 | 2014-07-07 | 엘지전자 주식회사 | 음성 신호 부호화 방법 및 복호화 방법과 이를 이용하는 장치 |
CN102543090B (zh) * | 2011-12-31 | 2013-12-04 | 深圳市茂碧信息科技有限公司 | 一种应用于变速率语音和音频编码的码率自动控制系统 |
US9208798B2 (en) | 2012-04-09 | 2015-12-08 | Board Of Regents, The University Of Texas System | Dynamic control of voice codec data rate |
CN103841418B (zh) * | 2012-11-22 | 2016-12-21 | 中国科学院声学研究所 | 一种3g网络中视频监控器码率控制的优化方法及系统 |
CN103050122B (zh) * | 2012-12-18 | 2014-10-08 | 北京航空航天大学 | 一种基于melp的多帧联合量化低速率语音编解码方法 |
CN103338375A (zh) * | 2013-06-27 | 2013-10-02 | 公安部第一研究所 | 一种宽带集群系统中基于视频数据重要性的动态码率分配方法 |
CN104517612B (zh) * | 2013-09-30 | 2018-10-12 | 上海爱聊信息科技有限公司 | 基于amr-nb语音信号的可变码率编码器和解码器及其编码和解码方法 |
CN106534862B (zh) * | 2016-12-20 | 2019-12-10 | 杭州当虹科技股份有限公司 | 一种视频编码方法 |
CN109151470B (zh) * | 2017-06-28 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 编码分辨率控制方法及终端 |
CN110166780B (zh) * | 2018-06-06 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 视频的码率控制方法、转码处理方法、装置和机器设备 |
CN110166781B (zh) * | 2018-06-22 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 一种视频编码方法、装置、可读介质和电子设备 |
US10349059B1 (en) * | 2018-07-17 | 2019-07-09 | Wowza Media Systems, LLC | Adjusting encoding frame size based on available network bandwidth |
CN109729353B (zh) * | 2019-01-31 | 2021-01-19 | 深圳市迅雷网文化有限公司 | 一种视频编码方法、装置、系统及介质 |
CN110740334B (zh) * | 2019-10-18 | 2021-08-31 | 福州大学 | 一种帧级别的应用层动态fec编码方法 |
CN110890945B (zh) * | 2019-11-20 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 数据传输方法、装置、终端及存储介质 |
CN112767953B (zh) * | 2020-06-24 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 语音编码方法、装置、计算机设备和存储介质 |
CN112767955B (zh) * | 2020-07-22 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 音频编码方法及装置、存储介质、电子设备 |
-
2020
- 2020-06-24 CN CN202010585545.9A patent/CN112767953B/zh active Active
-
2021
- 2021-05-25 EP EP21828640.9A patent/EP4040436A4/en active Pending
- 2021-05-25 JP JP2022554706A patent/JP7471727B2/ja active Active
- 2021-05-25 WO PCT/CN2021/095714 patent/WO2021258958A1/zh unknown
-
2022
- 2022-05-09 US US17/740,309 patent/US20220270622A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220270622A1 (en) | 2022-08-25 |
EP4040436A1 (en) | 2022-08-10 |
EP4040436A4 (en) | 2023-01-18 |
JP7471727B2 (ja) | 2024-04-22 |
CN112767953A (zh) | 2021-05-07 |
WO2021258958A1 (zh) | 2021-12-30 |
CN112767953B (zh) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Davis et al. | Statistical voice activity detection using low-variance spectrum estimation and an adaptive threshold | |
JP2006079079A (ja) | 分散音声認識システム及びその方法 | |
CN110265065B (zh) | 一种构建语音端点检测模型的方法及语音端点检测系统 | |
US9876901B1 (en) | Conversational call quality evaluator | |
CN111540342B (zh) | 一种能量阈值调整方法、装置、设备及介质 | |
CN112863489B (zh) | 语音识别方法、装置、设备及介质 | |
CN108877779B (zh) | 用于检测语音尾点的方法和装置 | |
US8868419B2 (en) | Generalizing text content summary from speech content | |
CN114338623A (zh) | 音频的处理方法、装置、设备、介质及计算机程序产品 | |
JP2023517973A (ja) | 音声符号化方法、装置、コンピュータ機器及びコンピュータプログラム | |
CN112767955B (zh) | 音频编码方法及装置、存储介质、电子设备 | |
WO2022083039A1 (zh) | 语音处理方法、计算机存储介质及电子设备 | |
CN113823303A (zh) | 音频降噪方法、装置及计算机可读存储介质 | |
CN115713939B (zh) | 语音识别方法、装置及电子设备 | |
US20180082703A1 (en) | Suitability score based on attribute scores | |
CN112509556B (zh) | 一种语音唤醒方法及装置 | |
CN114329042A (zh) | 数据处理方法、装置、设备、存储介质及计算机程序产品 | |
Zhu et al. | A robust and lightweight voice activity detection algorithm for speech enhancement at low signal-to-noise ratio | |
CN116741193B (zh) | 语音增强网络的训练方法、装置、存储介质及计算机设备 | |
CN117640015B (zh) | 一种语音编码、解码方法、装置、电子设备及存储介质 | |
WO2022068675A1 (zh) | 发声者语音抽取方法、装置、存储介质及电子设备 | |
CN115641857A (zh) | 音频处理方法、装置、电子设备、存储介质及程序产品 | |
CN116895289A (zh) | 语音活动检测模型的训练方法、语音活动检测方法及装置 | |
CN117579770A (zh) | 用于会议中确定主发言人的方法、装置、电子设备和介质 | |
CN117765932A (zh) | 语音识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |