JP2023510556A - オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス - Google Patents
オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス Download PDFInfo
- Publication number
- JP2023510556A JP2023510556A JP2022542749A JP2022542749A JP2023510556A JP 2023510556 A JP2023510556 A JP 2023510556A JP 2022542749 A JP2022542749 A JP 2022542749A JP 2022542749 A JP2022542749 A JP 2022542749A JP 2023510556 A JP2023510556 A JP 2023510556A
- Authority
- JP
- Japan
- Prior art keywords
- frequency band
- band signal
- current
- signal
- high frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 230000005236 sound signal Effects 0.000 claims abstract description 53
- 238000001228 spectrum Methods 0.000 claims description 51
- 230000015654 memory Effects 0.000 claims description 47
- 230000003595 spectral effect Effects 0.000 claims description 25
- 230000004927 fusion Effects 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000007493 shaping process Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
既定の指示情報、または復号によって得られる指示情報に基づいて、復号高周波帯域信号、拡張高周波帯域信号、および再構成音調信号から少なくとも1つの信号を選択して、現在のフレームの融合高周波帯域信号を取得するステップを含む。
sfb番目のサブバンドにpatch_spec[sfb]のみが存在する場合、sfb番目のサブバンドの融合信号スペクトルは、
merge_spec[sfb][k]=patch_spec[sfb][k],k∈[sfb_offset[sfb],sfb_offset[sfb+1])と表される。
sfb番目のサブバンドにpatch_spec[sfb]とenc_spec[sfb]のみが存在する場合は、patch_spec[sfb]とenc_spec[sfb]を結合することによってsfb番目のサブバンドの融合信号スペクトルが得られる。
merge_spec[sfb][k]=patch_spec[sfb][k],if enc_spec[sfb][k]=0である。
merge_spec[sfb][k]=enc_spec[sfb][k],if enc_spec[sfb][k]!=0である。
sfb番目のサブバンドにpatch_spec[sfb]とrecon_spec[sfb]のみが存在する場合は、patch_spec[sfb]とrecon_spec[sfb]を結合することによってsfb番目のサブバンドの融合信号スペクトルが得られる。
merge_spec[sfb][k]=gnoise_floor[sfb]*patch_spec[sfb][k],if recon_spec[sfb][k]=0である。
sfb_width[sfb]=sfb_offset[sfb+1]-sfb_offset[sfb]と表される。
Epatch[sfb]=Σk(patch_spec[sfb][k])2である。
merge_spec[sfb][k]=recon_spec[sfb][k],if enc_spec[sfb][k]!=0である。
sfb番目のサブバンドにenc_spec[sfb]、patch_spec[sfb]、およびrecon_spec[sfb]が存在する場合は、enc_spec[sfb]、patch_spec[sfb]、およびrecon_spec[sfb]を結合することによって融合信号を得ることができる。
patch_spec[sfb]とenc_spec[sfb]とに基づいて得られる高周波信号のスペクトルをノイズフロア利得を用いて調整し、recon_spec[sfb]をpatch_spec[sfb]およびenc_spec[sfb]と結合することで、融合信号スペクトルを得る。
merge_spec[sfb][k]=recon_spec[sfb][k],if recon_spec[sfb][k]!=0である。
merge_spec[sfb][k]=gnoise_floor[sfb]*(patch_spec[sfb][k]+enc_spec[sfb][k]),if recon_spec[sfb][k]=0である。
Eenc[sfb]=Σk(enc_spec[sfb][k])2である。
Recon_spec[sfb]は予約されていない。融合信号はpatch_spec[sfb]とenc_spec[sfb]とを含む。
オーディオ信号の現在のフレームを取得するように構成された信号取得ユニット601であって、現在のフレームが高周波帯域信号と低周波帯域信号とを含む、信号取得ユニット601と、
高周波帯域信号と低周波帯域信号とに基づいて第1の符号化パラメータを取得し、且つ高周波帯域信号に基づいて現在のフレームの第2の符号化パラメータを取得するように構成されたパラメータ取得ユニット602であって、第2の符号化パラメータが音調成分情報を含む、パラメータ取得ユニット602と、
第1の符号化パラメータと第2の符号化パラメータとに対してビットストリーム多重化を実行して、符号化ビットストリームを取得するように構成された符号化ユニット603とを含む。
符号化ビットストリームを取得するように構成された受信ユニット701と、
符号化ビットストリームに対してビットストリーム逆多重化を実行して、オーディオ信号の現在のフレームの第1の符号化パラメータと現在のフレームの第2の符号化パラメータとを取得するように構成された逆多重化ユニット702であって、現在のフレームの第2の符号化パラメータが音調成分情報を含む、逆多重化ユニット702と、
第1の符号化パラメータに基づいて現在のフレームの第1の高周波帯域信号と現在のフレームの第1の低周波帯域信号を取得し、且つ第2の符号化パラメータに基づいて現在のフレームの第2の高周波帯域信号を取得するように構成された取得ユニット703であって、第2の高周波帯域信号が再構成音調信号を含む、取得ユニット703と、
現在のフレームの第2の高周波帯域信号と現在のフレームの第1の高周波帯域信号とに基づいて現在のフレームの融合高周波帯域信号を取得するように構成された融合ユニット704とを含む。
受信器1001と、送信器1002と、プロセッサ1003と、メモリ1004とを含む(オーディオ符号化デバイス1000には1つ以上のプロセッサ1003があってよく、図8では1つのプロセッサがある一例が使用されている)。本出願のいくつかの実施形態において、受信器1001、送信器1002、プロセッサ1003、およびメモリ1004は、バスを使用して、または別の方式で、接続されてよい。図8では、受信器1001、送信器1002、プロセッサ1003、およびメモリ1004がバスを使用して接続される一例が使用されている。
受信器1101と、送信器1102と、プロセッサ1103と、メモリ1104とを含む(オーディオ復号デバイス1100には1つ以上のプロセッサ1103があってよく、図9では1つのプロセッサがある一例が使用されている)。本出願のいくつかの実施形態において、受信器1101、送信器1102、プロセッサ1103、およびメモリ1104は、バスを使用して、または別の方式で、接続されてよい。図9では、受信器1101、送信器1102、プロセッサ1103、およびメモリ1104がバスを使用して接続される一例が使用されている。
120 復号コンポーネント
130 モバイル端末
131 収集コンポーネント
132 チャネル符号化コンポーネント
140 モバイル端末
141 オーディオ再生コンポーネント
142 チャネル復号コンポーネント
150 ネットワークエレメント
151 チャネル復号コンポーネント
152 チャネル符号化コンポーネント
601 信号取得ユニット
602 パラメータ取得ユニット
603 符号化ユニット
701 受信ユニット
702 逆多重化ユニット
703 取得ユニット
704 融合ユニット
1000 オーディオ符号化デバイス
1001 受信器
1002 送信器
1003 プロセッサ
1004 メモリ
1100 オーディオ復号デバイス
1101 受信器
1102 送信器
1103 プロセッサ
1104 メモリ
Claims (35)
- オーディオ符号化方法であって、
オーディオ信号の現在のフレームを取得するステップであって、前記現在のフレームが高周波帯域信号と低周波帯域信号とを含む、ステップと、
前記高周波帯域信号と前記低周波帯域信号とに基づいて第1の符号化パラメータを取得するステップと、
前記高周波帯域信号に基づいて前記現在のフレームの第2の符号化パラメータを取得するステップであって、前記第2の符号化パラメータが音調成分情報を含む、ステップと、
前記第1の符号化パラメータと前記第2の符号化パラメータとに対してビットストリーム多重化を実行して、符号化ビットストリームを取得するステップと
を含む方法。 - 前記高周波帯域信号に基づいて前記現在のフレームの第2の符号化パラメータを取得する前記ステップは、
前記高周波帯域信号が音調成分を含むかどうかを検出するステップと、
前記高周波帯域信号が音調成分を含む場合に、前記高周波帯域信号に基づいて前記現在のフレームの前記第2の符号化パラメータを取得するステップと
を含む、請求項1に記載の方法。 - 前記音調成分情報は、音調成分数量情報、音調成分位置情報、音調成分振幅情報、または音調成分エネルギー情報のうちの少なくとも1つを含む、請求項1または2に記載の方法。
- 前記第2の符号化パラメータはノイズフロアパラメータをさらに含む、請求項1から3のいずれか一項に記載の方法。
- 前記ノイズフロアパラメータはノイズフロアエネルギーを含む、請求項4に記載の方法。
- オーディオ復号方法であって、
符号化ビットストリームを取得するステップと、
前記符号化ビットストリームに対してビットストリーム逆多重化を実行して、オーディオ信号の現在のフレームの第1の符号化パラメータと前記現在のフレームの第2の符号化パラメータとを取得するステップであって、前記現在のフレームの前記第2の符号化パラメータが音調成分情報を含む、ステップと、
前記第1の符号化パラメータに基づいて前記現在のフレームの第1の高周波帯域信号と前記現在のフレームの第1の低周波帯域信号とを取得するステップと、
前記第2の符号化パラメータに基づいて前記現在のフレームの第2の高周波帯域信号を取得するステップであって、前記第2の高周波帯域信号が再構成音調信号を含む、ステップと、
前記現在のフレームの前記第2の高周波帯域信号と前記現在のフレームの前記第1の高周波帯域信号とに基づいて前記現在のフレームの融合高周波帯域信号を取得するステップと
を含む方法。 - 前記第1の高周波帯域信号は、前記第1の符号化パラメータに基づいて直接復号を実行することによって得られる復号高周波帯域信号と、前記第1の低周波帯域信号に基づいて周波数帯域拡張を実行することによって得られる拡張高周波帯域信号とのうちの少なくとも一方を含む、請求項6に記載の方法。
- 前記第1の高周波帯域信号が前記拡張高周波帯域信号を含む場合、前記現在のフレームの前記第2の高周波帯域信号と前記現在のフレームの前記第1の高周波帯域信号とに基づいて前記現在のフレームの融合高周波帯域信号を取得する前記ステップは、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たす場合に、前記現在の周波数での拡張高周波帯域信号のスペクトルと前記現在のサブバンドのノイズフロア情報とに基づいて前記現在の周波数での融合高周波帯域信号を取得するステップ、または、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たさない場合に、前記現在の周波数での前記再構成音調信号の前記スペクトルに基づいて前記現在の周波数での融合高周波帯域信号を取得するステップ
を含む、請求項7に記載の方法。 - 前記ノイズフロア情報はノイズフロア利得パラメータを含む、請求項8に記載の方法。
- 前記現在のサブバンドの前記ノイズフロア利得パラメータは、前記現在のサブバンドの幅と、前記現在のサブバンドの拡張高周波帯域信号のスペクトルのエネルギーと、前記現在のサブバンドのノイズフロアエネルギーとに基づいて得られる、請求項9に記載の方法。
- 前記第1の高周波帯域信号が前記復号高周波帯域信号と前記拡張高周波帯域信号とを含む場合、前記現在のフレームの前記第2の高周波帯域信号と前記現在のフレームの前記第1の高周波帯域信号とに基づいて前記現在のフレームの融合高周波帯域信号を取得する前記ステップは、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たさない場合に、前記現在の周波数での前記再構成音調信号の前記スペクトルに基づいて前記現在の周波数での融合高周波帯域信号を取得するステップ、または、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たす場合に、前記現在の周波数での拡張高周波帯域信号のスペクトルと、前記現在の周波数での復号高周波帯域信号のスペクトルと、前記現在のサブバンドのノイズフロア情報とに基づいて、前記現在の周波数での融合高周波帯域信号を取得するステップ
を含む、請求項7に記載の方法。 - 前記ノイズフロア情報はノイズフロア利得パラメータを含む、請求項11に記載の方法。
- 前記現在のサブバンドの前記ノイズフロア利得パラメータは、前記現在のサブバンドの幅と、前記現在のサブバンドのノイズフロアエネルギーと、前記現在のサブバンドの拡張高周波帯域信号のスペクトルのエネルギーと、前記現在のサブバンドの復号高周波帯域信号のスペクトルのエネルギーとに基づいて得られる、請求項12に記載の方法。
- 前記第1の高周波帯域信号が前記復号高周波帯域信号と前記拡張高周波帯域信号とを含む場合、前記方法は、
既定の指示情報、または復号によって得られる指示情報に基づいて、前記復号高周波帯域信号、前記拡張高周波帯域信号、および前記再構成音調信号から少なくとも1つの信号を選択して、前記現在のフレームの前記融合高周波帯域信号を取得するステップ
をさらに含む、請求項7に記載の方法。 - 前記第2の符号化パラメータは、前記ノイズフロアエネルギーを示すために使用されるノイズフロアパラメータを含む、請求項10または13に記載の方法。
- 前記既定の条件は、前記再構成音調信号の前記スペクトルの前記値が0または既定の閾値未満であることを含む、請求項8または11に記載の方法。
- オーディオ信号の現在のフレームを取得するように構成された信号取得ユニットであって、前記現在のフレームが高周波帯域信号と低周波帯域信号とを含む、信号取得ユニットと、
前記高周波帯域信号と前記低周波帯域信号とに基づいて第1の符号化パラメータを取得し、且つ前記高周波帯域信号に基づいて前記現在のフレームの第2の符号化パラメータを取得するように構成されたパラメータ取得ユニットであって、前記第2の符号化パラメータが音調成分情報を含む、パラメータ取得ユニットと、
前記第1の符号化パラメータと第2の前記符号化パラメータとに対してビットストリーム多重化を実行して、符号化ビットストリームを取得するように構成された符号化ユニットと
を含む、オーディオ符号化器。 - 前記パラメータ取得ユニットは、
前記高周波帯域信号が音調成分を含むかどうかを検出し、且つ
前記高周波帯域信号が音調成分を含む場合に、前記高周波帯域信号に基づいて前記現在のフレームの前記第2の符号化パラメータを取得する
ようにさらに構成される、請求項17に記載のオーディオ符号化器。 - 前記音調成分情報は、音調成分数量情報、音調成分位置情報、音調成分振幅情報、または音調成分エネルギー情報のうちの少なくとも1つを含む、請求項17または18に記載のオーディオ符号化器。
- 前記第2の符号化パラメータはノイズフロアパラメータをさらに含む、請求項17から19のいずれか一項に記載のオーディオ符号化器。
- 前記ノイズフロアパラメータはノイズフロアエネルギーを示すために使用される、請求項20に記載のオーディオ符号化器。
- 符号化ビットストリームを取得するように構成された受信ユニットと、
前記符号化ビットストリームに対してビットストリーム逆多重化を実行して、オーディオ信号の現在のフレームの第1の符号化パラメータと前記現在のフレームの第2の符号化パラメータとを取得するように構成された逆多重化ユニットであって、前記現在のフレームの前記第2の符号化パラメータが音調成分情報を含む、逆多重化ユニットと、
前記第1の符号化パラメータに基づいて前記現在のフレームの第1の高周波帯域信号と前記現在のフレームの第1の低周波帯域信号を取得し、且つ前記第2の符号化パラメータに基づいて前記現在のフレームの第2の高周波帯域信号を取得するように構成された取得ユニットであって、前記第2の高周波帯域信号が再構成音調信号を含む、取得ユニットと、
前記現在のフレームの前記第2の高周波帯域信号と前記現在のフレームの前記第1の高周波帯域信号とに基づいて前記現在のフレームの融合高周波帯域信号を取得するように構成された融合ユニットと
を含む、オーディオ復号器。 - 前記第1の高周波帯域信号は、前記第1の符号化パラメータに基づいて直接復号を実行することによって得られる復号高周波帯域信号と、前記第1の低周波帯域信号に基づいて周波数帯域拡張を実行することによって得られる拡張高周波帯域信号とのうちの少なくとも一方を含む、請求項22に記載のオーディオ復号器。
- 前記第1の高周波帯域信号が前記拡張高周波帯域信号を含む場合、前記融合ユニットは、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たす場合に、前記現在の周波数での拡張高周波帯域信号のスペクトルと前記現在のサブバンドのノイズフロア情報とに基づいて前記現在の周波数での融合高周波帯域信号を取得し、または、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たさない場合に、前記現在の周波数での前記再構成音調信号の前記スペクトルに基づいて前記現在の周波数での融合高周波帯域信号を取得する
ようにさらに構成される、請求項23に記載のオーディオ復号器。 - 前記ノイズフロア情報はノイズフロア利得パラメータを含む、請求項24に記載のオーディオ復号器。
- 前記現在のサブバンドの前記ノイズフロア利得パラメータは、前記現在のサブバンドの幅と、前記現在のサブバンドの拡張高周波帯域信号のスペクトルのエネルギーと、前記現在のサブバンドのノイズフロアエネルギーとに基づいて得られる、請求項25に記載のオーディオ復号器。
- 前記第1の高周波帯域信号が前記復号高周波帯域信号と前記拡張高周波帯域信号とを含む場合、前記融合ユニットは、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たさない場合に、前記現在の周波数での前記再構成音調信号の前記スペクトルに基づいて前記現在の周波数での融合高周波帯域信号を取得し、または、
前記現在のフレームの現在のサブバンドの現在の周波数での再構成音調信号のスペクトルの値が既定の条件を満たす場合に、前記現在の周波数での拡張高周波帯域信号のスペクトルと、前記現在の周波数での復号高周波帯域信号のスペクトルと、前記現在のサブバンドのノイズフロア情報とに基づいて、前記現在の周波数での融合高周波帯域信号を取得する
ようにさらに構成される、請求項23に記載のオーディオ復号器。 - 前記ノイズフロア情報はノイズフロア利得パラメータを含む、請求項27に記載のオーディオ復号器。
- 前記現在のサブバンドの前記ノイズフロア利得パラメータは、前記現在のサブバンドの幅と、前記現在のサブバンドのノイズフロアエネルギーと、前記現在のサブバンドの拡張高周波帯域信号のスペクトルのエネルギーと、前記現在のサブバンドの復号高周波帯域信号のスペクトルのエネルギーとに基づいて得られる、請求項28に記載のオーディオ復号器。
- 前記第1の高周波帯域信号が前記復号高周波帯域信号と前記拡張高周波帯域信号とを含む場合、前記融合ユニットは、
既定の指示情報、または復号によって得られる指示情報に基づいて、前記復号高周波帯域信号、前記拡張高周波帯域信号、および前記再構成音調信号から少なくとも1つの信号を選択して、前記現在のフレームの前記融合高周波帯域信号を取得する
ようにさらに構成される、請求項23に記載のオーディオ復号器。 - 前記第2の符号化パラメータは、前記ノイズフロアエネルギーを示すために使用されるノイズフロアパラメータを含む、請求項26または29に記載のオーディオ復号器。
- 前記既定の条件は、前記再構成音調信号の前記スペクトルの前記値が0または既定の閾値未満であることを含む、請求項31または34に記載のオーディオ復号器。
- オーディオ符号化デバイスであって、少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、メモリに接続され、且つ前記メモリ内の命令を読み取って実行して、請求項1から5のいずれか一項に記載の方法を実施するように構成される、オーディオ符号化デバイス。
- オーディオ復号デバイスであって、少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、メモリに接続され、且つ前記メモリ内の命令を読み取って実行して、請求項6から16のいずれか一項に記載の方法を実施するように構成される、オーディオ復号デバイス。
- 命令を記憶したコンピュータ可読記憶媒体であって、前記命令がコンピュータ上で実行されると、前記コンピュータは請求項1から16のいずれか一項に記載の方法を実施することが可能になる、コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033326.X | 2020-01-13 | ||
CN202010033326.XA CN113192523B (zh) | 2020-01-13 | 2020-01-13 | 一种音频编解码方法和音频编解码设备 |
PCT/CN2021/071328 WO2021143692A1 (zh) | 2020-01-13 | 2021-01-12 | 一种音频编解码方法和音频编解码设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023510556A true JP2023510556A (ja) | 2023-03-14 |
JP7443534B2 JP7443534B2 (ja) | 2024-03-05 |
Family
ID=76863590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022542749A Active JP7443534B2 (ja) | 2020-01-13 | 2021-01-12 | オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス |
Country Status (6)
Country | Link |
---|---|
US (1) | US12039984B2 (ja) |
EP (1) | EP4084001A4 (ja) |
JP (1) | JP7443534B2 (ja) |
KR (1) | KR20220123108A (ja) |
CN (1) | CN113192523B (ja) |
WO (1) | WO2021143692A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113808596A (zh) * | 2020-05-30 | 2021-12-17 | 华为技术有限公司 | 一种音频编码方法和音频编码装置 |
CN113808597A (zh) * | 2020-05-30 | 2021-12-17 | 华为技术有限公司 | 一种音频编码方法和音频编码装置 |
CN114127844A (zh) * | 2021-10-21 | 2022-03-01 | 北京小米移动软件有限公司 | 一种信号编解码方法、装置、编码设备、解码设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014115225A1 (ja) * | 2013-01-22 | 2014-07-31 | パナソニック株式会社 | 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7899191B2 (en) * | 2004-03-12 | 2011-03-01 | Nokia Corporation | Synthesizing a mono audio signal |
AU2005337961B2 (en) * | 2005-11-04 | 2011-04-21 | Nokia Technologies Oy | Audio compression |
CN1831940B (zh) * | 2006-04-07 | 2010-06-23 | 安凯(广州)微电子技术有限公司 | 基于音频解码器的音调和节奏调节方法 |
JP2008058727A (ja) * | 2006-08-31 | 2008-03-13 | Toshiba Corp | 音声符号化装置 |
KR101355376B1 (ko) * | 2007-04-30 | 2014-01-23 | 삼성전자주식회사 | 고주파수 영역 부호화 및 복호화 방법 및 장치 |
JP4932917B2 (ja) * | 2009-04-03 | 2012-05-16 | 株式会社エヌ・ティ・ティ・ドコモ | 音声復号装置、音声復号方法、及び音声復号プログラム |
CN102194458B (zh) * | 2010-03-02 | 2013-02-27 | 中兴通讯股份有限公司 | 频带复制方法、装置及音频解码方法、系统 |
CA2915001C (en) * | 2013-06-21 | 2019-04-02 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Audio decoder having a bandwidth extension module with an energy adjusting module |
PL3128513T3 (pl) * | 2014-03-31 | 2019-11-29 | Fraunhofer Ges Forschung | Koder, dekoder, sposób kodowania, sposób dekodowania i program |
ES2933287T3 (es) * | 2016-04-12 | 2023-02-03 | Fraunhofer Ges Forschung | Codificador de audio para codificar una señal de audio, método para codificar una señal de audio y programa informático en consideración de una región espectral del pico detectada en una banda de frecuencia superior |
JP6769299B2 (ja) * | 2016-12-27 | 2020-10-14 | 富士通株式会社 | オーディオ符号化装置およびオーディオ符号化方法 |
EP3435376B1 (en) * | 2017-07-28 | 2020-01-22 | Fujitsu Limited | Audio encoding apparatus and audio encoding method |
DK4099325T3 (da) * | 2018-01-26 | 2023-06-19 | Dolby Int Ab | Bagudkompatibel integration af højfrekvensrekonstruktionsteknikker til lydsignaler |
IL313348A (en) * | 2018-04-25 | 2024-08-01 | Dolby Int Ab | Combining high-frequency restoration techniques with reduced post-processing delay |
-
2020
- 2020-01-13 CN CN202010033326.XA patent/CN113192523B/zh active Active
-
2021
- 2021-01-12 WO PCT/CN2021/071328 patent/WO2021143692A1/zh unknown
- 2021-01-12 JP JP2022542749A patent/JP7443534B2/ja active Active
- 2021-01-12 KR KR1020227026854A patent/KR20220123108A/ko active Search and Examination
- 2021-01-12 EP EP21741759.1A patent/EP4084001A4/en active Pending
-
2022
- 2022-07-13 US US17/864,116 patent/US12039984B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014115225A1 (ja) * | 2013-01-22 | 2014-07-31 | パナソニック株式会社 | 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113192523A (zh) | 2021-07-30 |
US20220358941A1 (en) | 2022-11-10 |
EP4084001A4 (en) | 2023-03-08 |
CN113192523B (zh) | 2024-07-16 |
KR20220123108A (ko) | 2022-09-05 |
US12039984B2 (en) | 2024-07-16 |
EP4084001A1 (en) | 2022-11-02 |
WO2021143692A1 (zh) | 2021-07-22 |
JP7443534B2 (ja) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023510556A (ja) | オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス | |
JP6364518B2 (ja) | オーディオ信号符号化及び復号化方法並びにオーディオ信号符号化及び復号化装置 | |
JP7470800B2 (ja) | オーディオ・エンコードおよびデコード方法ならびにオーディオ・エンコードおよびデコード装置 | |
US20240105188A1 (en) | Downmixed signal calculation method and apparatus | |
CN111316353A (zh) | 确定空间音频参数编码和相关联的解码 | |
US11887610B2 (en) | Audio encoding and decoding method and audio encoding and decoding device | |
RU2702265C1 (ru) | Способ и устройство обработки сигналов | |
JP2017151466A (ja) | 符号化方法、復号化方法、符号化装置及び復号化装置 | |
CN113948098A (zh) | 一种立体声音频信号时延估计方法及装置 | |
US20230040515A1 (en) | Audio signal coding method and apparatus | |
EP3991170A1 (en) | Determination of spatial audio parameter encoding and associated decoding | |
US20220335962A1 (en) | Audio encoding method and device and audio decoding method and device | |
WO2022012677A1 (zh) | 音频编解码方法和相关装置及计算机可读存储介质 | |
WO2022141658A1 (zh) | 在lc3音频码流中添加额外信息的方法、系统及介质 | |
US20230154472A1 (en) | Multi-channel audio signal encoding method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7443534 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |