JP2021520515A - 快適雑音の生成のサポート - Google Patents

快適雑音の生成のサポート Download PDF

Info

Publication number
JP2021520515A
JP2021520515A JP2020554191A JP2020554191A JP2021520515A JP 2021520515 A JP2021520515 A JP 2021520515A JP 2020554191 A JP2020554191 A JP 2020554191A JP 2020554191 A JP2020554191 A JP 2020554191A JP 2021520515 A JP2021520515 A JP 2021520515A
Authority
JP
Japan
Prior art keywords
spatial coherence
frequency band
audio channels
coherence
receiving node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020554191A
Other languages
English (en)
Other versions
JP7085640B2 (ja
Inventor
フレドリック ヤンソン,
フレドリック ヤンソン,
エリク ノーベル,
エリク ノーベル,
トフゴード, トマス ヤンソン
トフゴード, トマス ヤンソン
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル), テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2021520515A publication Critical patent/JP2021520515A/ja
Priority to JP2022091269A priority Critical patent/JP7438268B2/ja
Application granted granted Critical
Publication of JP7085640B2 publication Critical patent/JP7085640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/20Manipulation of established connections
    • H04W76/28Discontinuous transmission [DTX]; Discontinuous reception [DRX]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Stereophonic System (AREA)

Abstract

受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための方法および送信ノード。本方法は、送信ノードによって実行される。本方法は、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、オーディオ信号間の空間コヒーレンスを判定することとを含む。空間コヒーレンスは、知覚的重要性尺度に関連付けられる。空間コヒーレンスの圧縮表現は、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される。スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現が、受信ノードにおける快適雑音の生成を可能にするために受信ノードにシグナリングされる。【選択図】図3

Description

本明細書で提示される実施形態は、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための方法、送信ノード、コンピュータプログラム、およびコンピュータプログラム製品に関する。本明細書で提示される実施形態はさらに、受信ノードにおける快適雑音の生成のための方法、受信ノード、コンピュータプログラム、およびコンピュータプログラム製品に関する。
通信ネットワークでは、所与の通信プロトコル、そのパラメータ、および通信ネットワークが配備された物理環境のための優れた性能および容量を獲得するための課題が存在し得る。
たとえば、電気通信ネットワークにおける容量は、継続的に増加しているが、ユーザごとの必要とされる資源使用量を制限することは、いまだに関心事である。モバイル電気通信ネットワークにおいて、通話ごとに必要とされる資源使用量が少ないことは、モバイル電気通信ネットワークが多数のユーザに並行してサービスを提供され得ることを意味する。資源使用量を下げることはまた、ユーザ側のデバイス(端末デバイスなど)とネットワーク側のデバイス(ネットワークノードなど)との両方において電力消費の低下をもたらす。これは、端末デバイスにおいて体感されるバッテリ寿命の延長および通話時間の増加を可能にしつつ、ネットワークオペレータのためのエネルギおよびコスト節減につながる。
モバイル電気通信ネットワークにおける音声通信アプリケーションの必要とされる資源使用量を減らすための1つの機構は、音声における自然な休止を活用することである。さらに詳細には、ほとんどの会話では、一度に一方の関係者だけがアクティブであり、したがって、1つの通信方向における音声の休止が、通常は、信号の過半数を占めることになる。この特質を利用して必要な資源使用量を減らすための1つの方法は、音声の休止中にアクティブ信号エンコーディングが中断される、間欠送信(DTX:Discontinuous Transmission)システムを使用することである。
音声の休止の間、受信側における快適雑音発生器(CNG:Comfort Noise Generator)システムが、最初の雑音と類似の特性を有する背景雑音で前述の休止を埋めることができるように、背景雑音の非常に低いビットレートのエンコーディングを送信することが一般的である。背景雑音は維持され、音声とともにオンおよびオフを切り替えられないので、音声の休止時に静寂を有することに比べて、CNGは、サウンドをより自然にさせる。音声の休止時の完全な静寂は、一般に、不快に受け取られ、通話が切られたという誤解をしばしばもたらす。
DTXシステムは、アクティブ信号エンコーディングを使用するか低レート背景雑音エンコーディングを使用するかを送信デバイスに指示する、音声活動検出器(VAD:Voice Activity Detector)にさらに頼り得る。この点において、送信デバイスは、背景雑音と音声を区別するだけではなく、関連性があると見なされた音楽または他の信号タイプを検出するようにも設定され得る、(ジェネリック)サウンド活動検出器((Generic)Sound Activity Detector:GSADまたはSAD)を使用することによって、他のソースタイプを区別するように設定することができる。
通信サービスは、ステレオまたはマルチチャネルオーディオ送信をサポートすることによって、さらに強化することができる。これらの場合、DTX/CNGシステムはまた、心地よく聞こえる快適雑音を提供するために、信号の空間特性を考慮することができる。
快適雑音を生成するための一般的機構は、音声の休止時に背景雑音のエネルギおよびスペクトル形状に関する情報を送信することになる。これは、音声セグメントの通常のコーディングよりも有意に少ない数のビットを使用して行われ得る。
受信デバイス側において、快適雑音は、疑似ランダム信号を作成することと、次いで、送信デバイスから受信された情報に基づくフィルタで信号のスペクトルを形成することとによって、生成される。信号生成およびスペクトル形成は、時間または周波数ドメインにおいて実行され得る。
本明細書の実施形態の目的は、2つ以上のチャネルのための快適雑音の効率的生成を可能にすることである。
第1の態様によれば、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための方法が提示される。本方法は、送信ノードによって実行される。本方法は、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することを含む。本方法は、それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することを含み、空間コヒーレンスは、知覚的重要性尺度に関連付けられる。本方法は、空間コヒーレンスを周波数帯に分けることを含み、空間コヒーレンスの圧縮表現は、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される。本方法は、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードにシグナリングすることを含む。
第2の態様によれば、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための送信ノードが提示される。送信ノードは、処理回路を備える。処理回路は、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を送信ノードに判定させるように設定される。処理回路は、それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを送信ノードに判定させるように設定され、空間コヒーレンスは、知覚的重要性尺度に関連付けられる。処理回路は、送信ノードに空間コヒーレンスを周波数帯へと分割させるように設定され、空間コヒーレンスの圧縮表現は、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される。処理回路は、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするために、受信ノードへのスペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を送信ノードにシグナリングさせるように設定される。
第3の態様によれば、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのコンピュータプログラムが提示され、コンピュータプログラムは、送信ノードで実行されるとき、少なくとも第1の態様による方法を送信ノードに実行させる、コンピュータプログラムコードを含む。
第4の態様によれば、第3の態様によるコンピュータプログラムおよびコンピュータプログラムが記憶されるコンピュータ可読記憶媒体を備えるコンピュータプログラム製品が提示される。コンピュータ可読記憶媒体は、非一時的コンピュータ可読記憶媒体であってもよい。
第5の態様によれば、無線トランシーバデバイスが提示される。無線トランシーバデバイスは、第2の態様による送信ノードを備える。
有利には、これらの方法、これらの送信ノード、このコンピュータプログラム、このコンピュータプログラム製品およびこの無線トランシーバデバイスは、2つ以上のチャネルのための快適雑音の効率的生成を可能にする。
有利には、これらの方法、これらの送信ノード、このコンピュータプログラム、このコンピュータプログラム製品およびこの無線トランシーバデバイスは、前述の問題に悩まされることなく2つ以上のチャネルのために快適雑音が生成されることを可能にする。
有利にはこれらの方法、これらの送信ノード、このコンピュータプログラム、このコンピュータプログラム製品およびこの無線トランシーバデバイスは、現実的ステレオ画像を受信ノードにおいて再作成する能力を保持しつつ、ステレオまたはマルチチャネルDTXシステムにおいて符号化される必要がある情報の量を減らすことを可能にする。
含まれている実施形態の他の目的、特徴および利点が、以下の詳細な開示から、特許請求の範囲から、ならびに図面から明らかとなろう。
本発明の概念を、以下のような添付の図面を参照して、例として、ここで説明する。
実施形態による通信ネットワークを説明する概略図である。 一実施形態によるDTXシステムを概略的に示す図である。 実施形態による方法の流れ図である。 実施形態による方法の流れ図である。 実施形態によるチャネルコヒーレンス値のスペクトルを概略的に示す図である。 実施形態によるチャネルコヒーレンス値のスペクトルを概略的に示す図である。 いくつかの実施形態によるエンコーディングプロセスを示す流れ図である。 いくつかの実施形態による切り捨て方式を示す図である。 いくつかの実施形態による復号プロセスを示す流れ図である。 1つの実施形態によるプロセスを示す流れ図である。 1つの実施形態によるプロセスを示す流れ図である。 一実施形態による送信ノードの機能ユニットを示す概略図である。 一実施形態による送信ノードの機能モジュールを示す概略図である。 一実施形態によるコンピュータ可読記憶媒体を備えるコンピュータプログラム製品の一例を示す図である。 いくつかの実施形態によるステレオエンコーディングおよび復号システムを示す図である。
本発明の概念は、本発明の概念のある特定の実施形態が示された、添付の図面を参照して、以下でさらに十分に説明される。しかしながら、本発明の概念は、多数の異なる形で実施することができ、本明細書に記載の実施形態に制限されるものとして解釈されるべきではなく、そうではなくて、本開示が、徹底した完全なものとなり、当業者に本発明の概念の範囲を十分に伝えるように、これらの実施形態は、例として提供される。類似の番号は、本明細書全体にわたり、類似の要素を参照する。破線によって示された任意のステップまたは特徴は、任意選択として見なされるべきである。
空間コヒーレンスは、オーディオチャネルの間のコヒーレンスを表すので、空間コヒーレンスは、マルチチャネルオーディオ表現の空間的特質を構成し、チャネルコヒーレンスとも称され得る。以下の説明では、チャネルコヒーレンスおよび空間コヒーレンスという用語は、同義で使用される。
2つのステレオチャネルのそれぞれにおいて信号に個別に作用する独自のDTXシステムをそれぞれ有する2つのモノエンコーダが、使用されるとき、2つの異なる信号における異なるエネルギおよびスペクトル形状が、送信されることになる。
最も現実的な場合には、左のチャネル内の信号と右のチャネル内の信号との間のエネルギおよびスペクトル形状の差は、大きくならないが、信号のステレオ画像がどの程度広く知覚されるかには大きな差がまだ存在し得る。
快適雑音を生成するために使用されるランダムシーケンスが、左のチャネル内の信号と右のチャネル内の信号との間で同期される場合、結果は、非常に狭いステレオ画像を有する、およびリスナの頭部の中心から生じるサウンドの感覚を与える、ステレオ信号サウンドになる。そうではなくて、左のチャネル内の信号および右のチャネル内の信号が、同期されない場合、それは、逆の効果、すなわち、非常に広いステレオ画像を有する信号、を与えることになる。
ほとんどの場合には、同期されたまたは同期されていないランダムシーケンスとともに、送信デバイスがステレオ幅の優れた表現を有するアクティブ音声エンコーディングと非アクティブ雑音エンコーディングとを切り替えるときにステレオ画像の煩わしい差が存在することになることを意味するこれらの2つの極度の間のどこかにあるステレオ画像を、最初の背景雑音は、有することになる。
たとえば、最初の背景雑音の知覚されるステレオ画像幅はまた、送信デバイスのユーザが動き回っているためおよび/または背景において生じるものにより、通話中に変化し得る。独自のDTXシステムをそれぞれ有する2つのモノエンコーダを有するシステムは、これらの変化を追うための機構を有さない。
デュアルモノDTXシステムを使用することに関する1つの付加的問題は、たとえば、左のチャネル内の信号がアクティブエンコーディングで符号化され、右のチャネル内の信号が低ビットレート快適雑音エンコーディングで符号化されるとき、VAD判定が、2つのチャネルの間で同期されないことになり、それが可聴アーティファクトをもたらし得るということである。ランダムシーケンスが、いくつかの時間インスタンスでは同期され、他では同期されないことになり、時間とともに極度に広いことと極度に狭いこととをトグルで切り替えるステレオ画像をもたらすことにつながり得る。
したがって、2つ以上のチャネルのための快適雑音の生成の改良の必要性がまだ存在する。
以下の実施形態は、2つのチャネル(ステレオオーディオ)のためのDTXシステムを説明するが、本方法は、一般に、マルチチャネルオーディオのためのDTXおよびCNGのために適用され得る。
図1は、本明細書で提示される実施形態が適用され得る、通信ネットワーク100を示す概略図である。通信ネットワーク100は、通信リンク110を介して受信ノード200bと通信する送信ノード200aを備える。
送信ノード200aは、直接通信リンク110を介してまたは間接通信リンク110を介して、通信ネットワーク100内の1つまたは複数の他のデバイス、ノード、またはエンティティ、たとえば、ネットワークノードなど、を介して、受信ノード200bと通信し得る。
いくつかの態様では、送信ノード200aは、無線トランシーバデバイス200の一部であり、受信ノード200bは、別の無線トランシーバデバイス200の一部である。加えて、いくつかの態様では、無線トランシーバデバイス200は、送信ノード200aと受信ノード200bとの両方を備える。無線トランシーバデバイスの異なる例が存在し得る。例としては、携帯用無線デバイス、移動局、携帯電話、ハンドセット、無線ローカルループ電話、ユーザ機器(UE)、スマートフォン、ラップトップコンピュータ、およびタブレットコンピュータが挙げられるが、これらに限定されない。
前述のように、DTXシステムは、符号化された音声/オーディオを必要なときにのみ送信するために、使用することができる。図2は、1つまたは複数のオーディオチャネルのためのDTXシステム300の概略的ブロック図である。DTXシステム300は、送信ノード200aの一部でも、これと配列されても、これに実装されてもよい。入力オーディオは、VAD310、音声/オーディオエンコーダ320およびCNGエンコーダ330に提供される。VADが、その信号は音声またはオーディオを含むことを示すとき、音声/オーディオエンコーダが、起動され、そして、VADが、その信号は背景雑音を含むことを示すとき、CNGエンコーダが、起動される。VADは、それに応じて、音声/オーディオエンコーダまたはCNGエンコーダからの出力を送信するかどうかを選択的に制御する。2つ以上のチャネルのための快適雑音の生成のための既存の機構に関する問題が、上記で開示された。
したがって、本明細書で開示される実施形態は、受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのおよび受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成のための機構に関する。そのような機構を得るために、送信ノード200a、送信ノード200aによって実行される方法、送信ノード200aで実行されるときに送信ノード200aにその方法を実行させるコードを、たとえばコンピュータプログラムの形で、含むコンピュータプログラム製品が提供される。そのような機構を得るために、受信ノード200bと、受信ノード200bによって実行される方法と、受信ノード200bの処理回路で実行されるとき、受信ノード200bに本方法を実行させる、コードを、たとえばコンピュータプログラムの形で、含むコンピュータプログラム製品とがさらに提供される。
図3は、受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための方法の実施形態を示す流れ図である。本方法は、送信ノード200aによって実行される。本方法は、有利には、コンピュータプログラム1420として提供される。
S102:送信ノード200aが、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定する。
S104:送信ノード200aが、それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定する。空間コヒーレンスは、知覚的重要性尺度に関連付けられる。
DTXシステム300の使用の背後にある全論拠は、音声/オーディオの間の休止において必要とされる最小限の情報を送信することであるので、空間コヒーレンスは、送信前に非常に効率的なやり方で符号化される。
S106:送信ノード200aが、空間コヒーレンスを周波数帯に分ける。空間コヒーレンスの圧縮表現が、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される。
S108:送信ノード200aが、受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするために、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードにシグナリングする。
一実施形態によれば、知覚的重要性尺度は、少なくとも2つの入力オーディオチャネルのスペクトル特性に基づく。
一実施形態によれば、知覚的重要性尺度は、少なくとも2つの入力オーディオチャネルのパワースペクトルに基づいて判定される。
一実施形態によれば、知覚的重要性尺度は、少なくとも2つの入力オーディオチャネルの加重和のパワースペクトルに基づいて判定される。
一実施形態によれば、空間コヒーレンスの圧縮表現は、周波数帯ごとの1つの単一値である。
図4は、受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための方法の実施形態を示す流れ図である。本方法は、送信ノード200aによって実行される。本方法は、有利には、コンピュータプログラム1420として提供される。
S202:送信ノード200aが、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定する。スペクトル特性は、知覚的重要性尺度に関連付けられる。
S204:送信ノード200aが、それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定する。空間コヒーレンスが、周波数帯に分けられる。
DTXシステム300の使用の背後にある全論拠は、音声/オーディオの間の休止において必要とされる最小限の情報を送信することであるので、空間コヒーレンスは、送信前に非常に効率的なやり方で符号化される。したがって、空間コヒーレンスの1つの単一値は、周波数帯ごとに判定される。
空間コヒーレンスの単一値は、各周波数帯内の空間コヒーレンス値に重み付けする重み付けすることによって、判定される。重み付けのために使用される重み付け関数の1つの目的は、他よりも知覚的に重要な周波数で生じる空間コヒーレンスにより高い重みを置くことである。したがって、各周波数帯内の空間コヒーレンス値は、スペクトル特性の対応する値の知覚的重要性尺度に従って、重み付けされる。
S206:送信ノード200aが、受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするために、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの単一値に関する情報を受信ノード200bにシグナリングする。
受信ノード200bにあるデコーダにおいて、コヒーレンスが、再構築され、最初のサウンドに類似のステレオ画像を有する快適雑音信号が、作成される。
送信ノード200aによって実行されるものとしての受信ノード200bにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートすることのさらなる詳細に関する実施形態をここで開示する。
本明細書で開示される実施形態は、ステレオエンコーダおよびデコーダアーキテクチャに、ならびにチャネルコヒーレンスがチャネルペアで考慮されるマルチチャネルエンコーダおよびデコーダについて、適用可能である。
いくつかの態様では、ステレオエンコーダが、チャネルペア[l(m,n)r(m,n)]を入力として受信し、そこで、l(m,n)およびr(m,n)は、それぞれ、フレームmのサンプルインデックスnの、左のおよび右のチャネルのための入力信号を示す。信号は、サンプリング周波数fでフレームの長さNのサンプルにおいて処理され、フレームの長さは、重複(過去のサンプルのルックアヘッドおよび/またはメモリ)を含み得る。
図2にあるように、ステレオエンコーダVADが、信号は背景雑音を含むことを示すとき、ステレオCNGエンコーダが、起動される。信号は、たとえば、離散フーリエ変換(DFT:discrete Fourier transform)または任意の他の適切なフィルタバンクまたは変換、たとえば、直交ミラーフィルタ(QMF:quadrature mirror filter)、ハイブリッドQMFまたは修正離散コサイン変換(MDCT:modified discrete cosine transform)、を用いて、周波数ドメインに変換される。DFTまたはMDCT変換が使用される場合、入力信号は、以下に従って判定されるチャネルペア[lwin(m,n)rwin(m,n)]をもたらして、変換の前に窓処理される:
[lwin(m,n)rwin(m,n)]=[l(m,n)win(n)r(m,n)win(n)],n=0,1,2,…,N−1。
したがって、一実施形態によれば、スペクトル特性が判定される前に、少なくとも2つのオーディオチャネルの、フレームインデックスmおよびサンプルインデックスnのための、オーディオ信号l(m,n)、r(m,n)が、窓処理されて、それぞれの窓処理される信号lwin(m,n)、rwin(m,n)を形成する。ウインドウの選択は、一般に、様々なパラメータ、たとえば、時間および周波数分解能特性、アルゴリズム遅延(重複の長さ)、再構築特質など、に依存し得る。したがって、窓処理されるチャネルペア[lwin(m,n)rwin(m,n)]は、次いで、以下に従って、変換される:
Figure 2021520515
周波数fのためのチャネルコヒーレンスCgen(f)の一般的規定は、以下によって与えられる:
Figure 2021520515
そこで、Sxx(f)およびSyy(f)は、2つのチャネルxおよびyのそれぞれのパワースペクトルを表し、Sxy(f)は、2つのチャネルxおよびyのクロスパワースペクトルである。DFTに基づく解では、スペクトルは、DFTスペクトルによって表され得る。具体的には、一実施形態によれば、フレームインデックスmおよび周波数ビンインデックスkのための空間コヒーレンスC(m,k)は、次のように判定される:
Figure 2021520515
そこで、L(m,k)は、窓処理されるオーディオ信号lwin(m,n)のスペクトルであり、R(m,k)は、窓処理されるオーディオ信号rwin(m,n)のスペクトルであり、そして、*は、複素共役を示す。
コヒーレンスの前述の表現は、一般に、高周波数分解能を有して計算される。これの1つの理由は、周波数分解能は、信号フレームサイズに依存し、信号フレームサイズは、高分解能が望ましいアクティブ音声/オーディオエンコーディングに関してと、CNGエンコーディングに関して、通常は、同じになるということである。もう1つの理由は、高周波数分解能は、知覚的に動機付けられた周波数帯分割を可能にする、ということである。さらにもう1つの理由としては、コヒーレンス計算の要素、すなわち、L(m,k)、R(m,k)、Sxx、Sxy、Syy、が、通常のオーディオエンコーダにおいて、より高い周波数分解能が望ましい他の目的のために使用され得る、ということがあり得る。サンプリング周波数f=48kHzおよび20msのフレーム長を有する典型値は、チャネルコヒーレンスの960周波数ビンになり得る。
非アクティブ(すなわち、非音声)セグメントを符号化するためのビットレートを低く保つことが極めて重要なDTXのアプリケーションについて、高周波数分解能を有するチャネルコヒーレンスを送信することは実現不可能である。チャネルコヒーレンスを表すために必要とされるビットの数を減らすために、スペクトルは、図5に示すように、周波数帯に分割することができ、各周波数帯内のチャネルコヒーレンスは、単一値またはいくつかの他の圧縮表現によって表されることになる。周波数帯の数は、通常は、20〜20000Hzの全可聴帯域幅について2〜50ほどである。
すべての周波数帯は、同等の周波数のような幅を有し得るが、オーディオコーディングアプリケーションにおいてより一般的なのは、各周波数帯の幅をオーディオの人間の知覚に一致させることであり、それにより、低周波数の相対的に狭い周波数帯と、より高い周波数の周波数帯の幅の増加とをもたらす。具体的には、一実施形態によれば、空間コヒーレンスは、等しくない長さの周波数帯に分けられる。たとえば、周波数帯は、ERBレートのスケールを使用して、作成することができ、ERBは、同等の矩形周波数帯幅に対して短い。
1つの実施形態では、コヒーレンスの圧縮表現が、各周波数帯内のコヒーレンスの平均値によって規定され、そして、デコーダが、次いで、快適雑音を生成するときに周波数帯内のすべての周波数についてこの単一の値を使用することができるように、周波数帯ごとのこの単一の値が、受信ノード200bにあるデコーダに送信される、あるいは時間および/または周波数の急激な変化を避けるために信号フレームおよび/または周波数帯の何らかの平滑化を場合により有する。
しかしながら、ステップS204で前述したように、別の実施形態において、周波数帯内の異なる周波数は、周波数帯ごとの単一のコヒーレンス値の判定において、知覚的重要性尺度に応じて異なる重みを与えられる。
知覚的重要性尺度の異なる例が存在し得る。
いくつかの態様では、知覚的重要性尺度は、スペクトル特性に関連する。
具体的には、1つの実施形態において、知覚的重要性尺度は、少なくとも2つの入力オーディオ信号の大きさまたはパワースペクトルに関連する。
別の実施形態において、知覚的重要性尺度は、少なくとも2つの入力オーディオチャネルでの加重和の大きさまたはパワースペクトルに関連する。
いくつかの態様では、高エネルギは、高い知覚的重要度に対応し、逆もまた同様である。具体的には、一実施形態によれば、より高い電力を有する周波数係数に対応する空間コヒーレンス値が、より低いエネルギを有する周波数係数に対応する空間コヒーレンス値と比較してより多くの影響を空間コヒーレンスのこの1つの単一値に及ぼすように、各周波数帯内の空間コヒーレンス値は、重み付けされる。
一実施形態によれば、周波数帯内の異なる周波数は、各周波数における電力に応じて、異なる重みを与えられる。この実施形態の背後にある1つの論拠は、より高いエネルギを有する周波数は、より低いエネルギを有する別の周波数と比較して、結合されたコヒーレンス値により多くの影響を及ぼすはずであるということである。
いくつかの他の態様において、知覚的重要性尺度は、符号化されたスペクトル特性に関連する。符号化されたスペクトル特性は、より厳密に(すなわち、符号化されていないスペクトル特性よりも厳密に)受信ノード200bで再構築されたものとしての信号を反映し得る。
いくつかの他の態様において、知覚的重要性尺度は、空間コヒーレンスに関連する。より低い空間コヒーレンスを有する信号構成要素よりも正確に、より高い空間コヒーレンスを有する信号構成要素を表すことが知覚的により重要になり得る。別の態様において、知覚的重要性尺度は、アクティブに符号化された音声/オーディオセグメントを含む、経時的な空間コヒーレンスに関連し得る。これの1つの理由は、アクティブに符号化された音声/オーディオセグメントにおけるのと類似の特性の空間コヒーレンスを生成することが知覚的に重要になり得るということである。
他の知覚的重要性尺度もまた、想定される。
一実施形態によれば、加重平均が、各周波数帯におけるコヒーレンスを表すために使用され、そこで、モノ信号lr(m,n)=wl(m,n)+wr(m,n)のための変換されたエネルギスペクトル|LR(m,k)|は、フレームm内の知覚的重要性尺度を規定し、重み付け関数として使用される。すなわち、いくつかの態様では、lr(m,n)=wl(m,n)+wr(m,n)のエネルギスペクトル|LR(m,k)|が、空間コヒーレンス値に重み付けするために使用される。ダウンミックス重みwおよびwは、経時的に一定または可変でもよく、あるいは、類似の演算が周波数ドメインにおいて実行される場合には、周波数にわたり一定または可変でもよい。1つの実施形態において、チャネルの加重は、同等、たとえば、w=w=0.5、である。その場合、一実施形態によれば、各周波数帯は、より低い周波数ビンと上部周波数ビンとの間に広がり、フレームインデックスmおよび周波数帯bの空間コヒーレンスの1つの単一値C(m,b)は、次のように判定される:
Figure 2021520515
そこで、mはフレームインデックスであり、bは周波数帯のインデックスであり、Nbandは、周波数帯の総数であり、limit(b)は、周波数帯bの最も低い周波数ビンを示す。したがって、パラメータlimit(b)は、各周波数帯における第1の係数を示し、周波数帯の間の境界線を規定する。この実施形態において、limit(b)はまた、周波数帯の上限Nband−1を規定するために、周波数帯Nbandについて規定されることになる。limit(b)を得るための異なるやり方が存在し得る。一実施形態によれば、limit(b)は、関数またはルックアップテーブルとして提供される。
図6は、周波数帯b+1における重み付けを説明する。各周波数ビンについて、垂直な実線を有する点は、コヒーレンス値を示し、垂直な破線を有する点は、スペクトル特性の対応する値のエネルギを示す。水平な点線は、周波数帯b+1における4つのコヒーレンス値の平均を示し、破線は、加重平均を示す。この例では、周波数帯b+1内の第3のビンは、加重平均が非加重平均より高いことにつながる、高いコヒーレンス値と高エネルギとの両方を有する。
エネルギが周波数帯内のすべてのビンについて同じであると想定すると、そのとき、加重平均および非加重平均は、同等になることになる。さらに、エネルギが、1つのビンを除いて、周波数帯内のすべてのビンについてゼロであると想定すると、そのとき、加重平均は、その1つのビンのコヒーレンス値と同等になることになる。
空間コヒーレンス値C(m,b)は、次いで、符号化されて、受信ノード200bにあるデコーダに記憶または送信され、そこで、快適雑音が、現実的ステレオ画像を作成するために、復号されたコヒーレンスを使用して生成される。
一実施形態による空間コヒーレンスのエンコーディング
周波数帯ごとに与えられるコヒーレンス代表値は、空間コヒーレンスベクトル
Figure 2021520515
を形成し、そこで、Nbndは周波数帯の数であり、bは周波数帯インデックスであり、mはフレームインデックスである。一実施形態において、空間コヒーレンスベクトルCの値Cb,mは、フレームmおよび帯域bのための重み付けされた空間コヒーレンス値C(m,b)に対応する。
一実施形態において、コヒーレンスベクトルは、可変ビットレートエントロピコーディングがその後に続く予測方式を使用して、符号化される。コーディング方式はさらに、適応型フレーム間予測を介して性能を向上させる。コヒーレンスベクトルのエンコーディングは、次の特質を考慮する:(1)変化するフレームごとのビット配分Bへの適応型エンコーディング、(2)コヒーレンスベクトルが、強いフレーム対フレームの類似性を示す、および(3)エラー伝播は、失われたフレームについて低く保たれるべきである。
変化するフレームごとのビット配分に対処するために、粗い−細かいエンコーディング戦略が実施される。より具体的には、粗いエンコーディングが、低ビットレートで先ず達成され、次の細かいエンコーディングは、ビット制限が達せられたときに、切り捨てられ得る。
いくつかの実施形態において、粗いエンコーディングは、予測方式を用いて、実行される。そのような実施形態において、予測因子は、増加する帯域bのコヒーレンスベクトルに沿って機能し、ベクトルの前の値に基づいて各係数を推定する。すなわち、コヒーレンスベクトルのフレーム内予測が、実行され、以下によって与えられる:
Figure 2021520515
各予測因子セットP(q)は、(Nbnd−1)予測因子から成り、各予測因子は、各帯域bのための(b−1)予測因子係数を含み、そこで、q=1,2,…Nであり、Nは、予測因子セットの総数を示す。前述のように、b=1のとき、前の値は存在せず、そして、コヒーレンスベクトルのフレーム内予測は、ゼロである。一例として、6つのコヒーレンス帯域が存在するとき、Nbnd=6、の予測因子セット数qは、以下により与えられる:
Figure 2021520515
もう1つの例として、予測因子セットの総数は、4でもよく、すなわち、N=4、これは、選択された予測因子セットが、2ビットを使用して、シグナリングされ得ることを示す。いくつかの実施形態において、予測因子セットqのための予測因子係数は、連続して対処され得、長さ
Figure 2021520515
の単一のベクトルに記憶され得る。
図7は、いくつかの実施形態によるエンコーディングプロセス701を示す流れ図である。エンコーディングプロセス701は、以下のステップに従って、エンコーダによって、実行され得る:
ステップ700で、各フレームmについて、エンコーディングのために使われるビットを記録するためのビット変数(ビットカウンタとも称される)が、ゼロに初期化される(Bcurr,m=0)。エンコーディングアルゴリズムが、コヒーレンスベクトル(Cb,m)を受信して、前の再構築されたコヒーレンスベクトル
Figure 2021520515
のコピー、およびビット配分Bを符号化する。いくつかの実施形態において、前述のエンコーディングステップで使われるビットは、BおよびBcurr,mに含まれ得る。そのような実施形態において、後述のアルゴリズムにおけるビット配分は、B−Bcurr,mによって与えられ得る。
ステップ710で、利用可能な予測因子p(q)、q=1,2,…,N、から最小予測エラーを与える予測因子セットp(q*)が、選択される。選択される予測因子セットは、式、
Figure 2021520515
によって与えられる。
いくつかの実施形態において、予測はゼロであり、エラーへの寄与は、すべての予測因子セットについて同じになるので、b=1は、予測因子セットから省かれる。選択された予測因子セットインデックスが、記憶され、ビットカウンタ(Bcurr,m)は、ビットの必要数で増やされ、たとえば、2つのビットが、予測因子セットを符号化するために必要とされる場合、Bcurr,m=Bcurr,m+2となる。
ステップ720で、予測重み係数αが計算される。予測重み係数は、後述のステップ760に記載されるような加重予測を生み出すために使用される。重み係数αは、各フレームmにおいて空間コヒーレンス値のベクトルを符号化するために利用可能なビット配分Bに基づいて判定される。
概して、重み係数αは、0から1までの範囲の値を取り得る、すなわち、現在のフレーム(α=1)からの情報のみを使用することから、前のフレーム(α=0)およびその間のいずれか(0<α<1)からの情報のみを使用することまで。より低い重み係数αは、エンコーディングを、失われたフレームの影響をより受けやすくし得るので、いくつかの態様では、可能な限り高い重み係数αを使用することが望ましい。しかしながら、重み係数αのより低い値は、一般に、より少ない符号化されたビットを生じさせるので、重み係数αの選択は、フレームmごとのビット配分Bとバランスを取られなければならない。
エンコーディングで使用される重み係数αの値は、少なくとも黙示的に、受信ノード200bにおけるデコーダにおいて知られていなければならない。すなわち、一実施形態において、重み係数αに関する情報は、符号化され、デコーダに送信される(ステップS1016にあるように)必要がある。他の実施形態において、デコーダは、デコーダにおいて既に入手可能な他のパラメータに基づいて予測重み係数を導出することができる。重み係数αに関する情報をどのように提供するかのさらなる態様を以下で開示する。
空間コヒーレンスを符号化するためのフレームmのためのビット配分Bは、送信ノード200aからの明示的シグナリングなしに受信ノード200bにあるデコーダにおいて知られている。この点において、ビット配分Bの値は、受信ノード200bに明示的にシグナリングされる必要はない。受信ノード200bにおけるデコーダは、ビットストリームの解釈の仕方を知っているので、そのデコーダはまた、いくつのビットが復号されたかも知っているという副作用が生じる。残りのビットは、単純に、全ビット配分(これもまた知られている)からビットの復号された数を差し引くことによって、受信ノード200bにあるデコーダにおいて見つけられる。
いくつかの態様では、ビット配分Bに基づいて、1セットの候補重み係数が、選択され、結合された予測および残差エンコーディング方式を用いる試行エンコーディング(後述されるようなレート切り捨て戦略を実行しない)が、使用される候補重み係数を所与として、符号化されたビットの総数を発見するために、すべてのこれらの候補重み係数について実行される。具体的には、一実施形態によれば、重み係数αは、1セットの少なくとも2つの候補重み係数を選択することと、各候補重み係数について空間コヒーレンス値のベクトルの試行エンコーディングを実行することとによって、判定される。
いくつかの態様では、どの候補重み係数を試行エンコーディング中に使用するかは、ビット配分Bに基づく。この点において、候補重み係数は、入力としてのビット配分Bを有するテーブルルックアップを実行することを利用して、またはビット配分Bを関数に入力することによって、決定され得る。テーブルルックアップは、1セットの背景雑音のトレーニングを介して取得されたテーブル値で実行され得る。
各候補重み係数の試行エンコーディングは、空間コヒーレンス値のベクトルの符号化されたビットのそれぞれの総数を生じさせる。重み係数αは、次いで、候補重み係数の符号化されたビットの総数がビット配分B内に収まるか否かに応じて、選択され得る。具体的には、一実施形態によれば、重み係数αは、符号化されたビットの総数がビット配分B内に収まる最大の候補重み係数として選択される。一実施形態によれば、符号化されたビットの総数が、候補重み係数のうちのいずれのビット配分B内にも収まらないとき、重み係数αが、符号化されたビットの最も少ない総数を生じさせる候補重み係数として選択される。
すなわち、すべての候補重み係数が、符号化されたビットの総数がビット配分B内にあるという結果をもたらす場合、最高の候補重み係数が、重み係数αとして選択される。同様に、候補重み係数のうちの最低の重み係数がビット配分B内のビットの総数につながる、または候補重み係数のうちのどの重み係数もビット配分B内のビットの総数につながらない場合にのみ、最低数のビットにつながる候補重み係数が、重み係数αとして選択される。候補重み係数のうちのどれが選択されたかは、次いで、デコーダにシグナリングされる。
空間コヒーレンス値のベクトルのエンコーディングのために必要とされる、それぞれビットの数Bcurrlow,mおよびBcurrhigh,mをもたらす、2つの候補重み係数αlowおよびαhighについて試行エンコーディングが実行される、用例をここで開示する。
入力としてBcurr,mを使用して、2つの候補重み係数αlowおよびαhighが、入力としてのビット配分Bを用いてテーブルルックアップを実行することによって、または関数にビット配分Bを入力することによって、得られる。試行エンコーディングは、エンコーディングのために必要とされるビットの数の2つの値Bcurrlow,mおよびBcurrhigh,mを生じさせる、各候補重み係数αlowおよびαhighについて後述されるレート切り捨て戦略なしに実行される。これに基づいて、2つの候補重み係数αlowおよびαhighのうちの1つが、次のようなエンコーディングに従って、選択される:
Figure 2021520515
選択された重み係数αは、1つのビットを使用して符号化される、たとえば、αlowのための「0」およびαhighのための「1」。重み係数αの前述の表現における第3の代替は、以下のように解釈されるべきである:候補重み係数αlowおよびαhighの両方が、ビット配分Bを超える符号化されたビットの結果的数を生じさせる場合、最低数の符号化されたビットを生じさせる候補重み係数が、選択される。
ステップ730における帯域b=1,2,..Nbndのそれぞれについて、以下のステップが実行される:
ステップ740において、フレーム内予測値、
Figure 2021520515
、が得られる。第1の帯域(b=1)について前述の符号化されたコヒーレンス値は存在しない。いくつかの実施形態において、第1の帯域についてのフレーム内予測は、ゼロにセットされ得る、
Figure 2021520515
。いくつかの実施形態において、第1の帯域のフレーム内予測は、平均値
Figure 2021520515

Figure 2021520515
、にセットされ得る。
いくつかの代替実施形態において、第1の帯域のコヒーレンス値は、別個に符号化され得る。そのような実施形態において、第1の値は、スカラ量子化器を使用して符号化されて再構築された値
Figure 2021520515
を生み出す。それに応じて、第1の帯域のフレーム内予測は、再構築された値、
Figure 2021520515
、にセットされ得る。ビットカウンタ、Bcurr,mは、係数を符号化するために必要とされるビットの量だけ増やされる。たとえば、3ビットが、係数を符号化するために使用される場合、3ビットが、エンコーディングのために使われるビットの現在の量に追加される、たとえば、Bcurr,m=Bcurr,m+3。
残りの帯域b=2,3,…,Nbndについて、フレーム内予測
Figure 2021520515
は、前に符号化されたコヒーレンス値、すなわち
Figure 2021520515
、に基づく。
ステップ750で、フレーム間予測値、
Figure 2021520515
、が、1つまたは複数の先行フレームから前に再構築されたコヒーレンスベクトル要素に基づいて取得される。背景雑音が安定しているまたはゆっくりと変化する場合には、コヒーレンス帯域値Cb,mにおけるフレーム対フレームの変動は、小さくなる。したがって、前のフレームからの値を使用するフレーム間予測は、しばしば、小さい予測残差および小さい残差コーディングビットレートを生じさせる優れた概算になる。一例として、帯域bの最後の再構築された値は、フレーム間予測値のために使用され得る、すなわち、
Figure 2021520515
。2つ以上の先行フレームを考慮するフレーム間線形予測因子は、
Figure 2021520515
として公式化することができ、そこで、
Figure 2021520515
は、フレームmのすべての帯域bのためのフレーム間の予測されたコヒーレンス値の列ベクトルを示し、
Figure 2021520515
は、フレームm−nのすべての帯域bの再構築されたコヒーレンス値を表し、そして、gは、Ninter先行フレームにわたる線形予測因子係数である。gは、事前に規定されたセットの予測因子から選択することができ、その場合、使用される予測因子は、デコーダに通信され得るインデックスで表される必要がある。
ステップ760で、加重予測、
Figure 2021520515
、は、フレーム内予測、
Figure 2021520515
、フレーム間予測、
Figure 2021520515
、および予測重み係数αに基づいて、形成される。いくつかの実施形態において、加重予測は、
Figure 2021520515
によって与えられる。
ステップ770で、予測残差が、計算および符号化される。いくつかの実施形態において、予測残差が、コヒーレンスベクトルおよび加重予測、すなわち、
Figure 2021520515
、に基づいて、計算される。いくつかの実施形態において、スカラ量子化器が、予測残差をインデックスIb,mに量子化するために使用される。そのような実施形態において、インデックスは、Ib,m=SQ(rb,m)によって与えられ、そこで、SQ(x)は、適切な範囲を有するスカラ量子化器関数である。スカラ量子化器の一例は、下記の表1に示される。表1は、予測残差の再構築レベルおよび量子化器インデックスの一例を示す。
Figure 2021520515
いくつかの実施形態において、インデックスIb,mは、より小さい値のためにより少ないビットを消費する可変長コードワード方式で符号化される。予測残差の符号化のいくつかの例は、ハフマンコーディング、ゴロム・ライスコーディング、および単項コーディング(単項コーディングは、除数1を有するゴロム・ライスコーディングと同じである)である。予測残差の符号化のステップにおいて、残りのビット配分(B−Bcurr,m)が考慮される必要がある。インデックスIb,mに対応するコードワードの長さLcode(Ib,m)が、残りのビット配分内に収まる、すなわち、Lcode(Ib,m)≦B−Bcurr,m、の場合、インデックスIb,mが、最終インデックスI b,mとして選択される。残りのビットが、インデックスIb,mを符号化するのに十分ではない場合、ビットレート切り捨て戦略が、適用される。いくつかの実施形態において、ビットレート切り捨て戦略は、より小さい残差値はより少ないビットを消費すると想定して、最も大きい可能な残差値を符号化することを含む。そのようなレート切り捨て戦略は、図8にテーブル800によって示されたようなコードブックを並べ替えることによって、実現することができる。図8は、表1に示されたスカラ量子化器の例のための単項コードワードマッピングを有する例示的量子化器テーブル800を示す。いくつかの実施形態において、ビットレート切り捨ては、コードワード0に達するまで、テーブル800を2ステップ上に進むことによって、実現され得る。すなわち、図8は、長いコードワードからより短いコードワードに上向きに移動する切り捨て方式を示す。再構築された値の正しいサインを維持するために、各切り捨てステップは、それぞれ負の値および正の値の破線の矢印および実線の矢印によって示されているように、テーブル800を2ステップ上に進む。テーブル800を2ステップ上に移動することによって、新しい切り捨てられたコードブックインデックス
Figure 2021520515
が、発見され得る。上方検索は、
Figure 2021520515
が満たされるあるいはテーブル800の最上部に達するまで、継続する。
上方検索によって判定されたコードワードの長さが、ビット配分を超えていない場合、最終インデックスが選択され
Figure 2021520515
、I b,mがビットストリームに出力され、再構築された残差が、最終インデックスに基づいて形成される、すなわち、
Figure 2021520515
上方検索後に、コードワードの長さが、ビット配分をまだ超えている場合、
Figure 2021520515
、これは、ビット制限に達したことB=Bcurr,mを意味する。そのような場合には、再構築された残差はゼロにセットされ
Figure 2021520515
、インデックスはビットストリームに追加されない。デコーダは、同期されたビットカウンタ、Bcurr,m、を保持するので、デコーダは、この状況を検出し、明示的シグナリングなしに
Figure 2021520515
を使用することができる。
代替実施形態において、初期インデックスに関連するコードワードの長さが、ビット配分を超える場合、残差値は、直ちにゼロにセットされ、それにより、前述の上方検索を控える。これは、計算複雑性が危機的である場合に、有益になり得る。
ステップ780で、再構築されたコヒーレンス値
Figure 2021520515
が、再構築された予測残差および加重予測に基づいて形成される、すなわち、
Figure 2021520515
ステップ790で、ビットカウンタが、それに応じて、インクリメントされる。前述のように、ビットカウンタは、エンコーディングプロセス701を通して増やされる。
いくつかの実施形態において、コヒーレンスベクトルにおけるフレーム対フレームの変動は、小さい。したがって、前のフレーム値を使用するフレーム間予測は、しばしば、小さい予測残差および小さい残差コーディングビットレートを生じさせる優れた概算である。加えて、予測重み係数αは、ビットレート対フレーム損失回復力のバランスを取る目的にかなう。
図9は、いくつかの実施形態による復号プロセス901を示す流れ図である。エンコーディングプロセス701に対応する復号プロセス901が、以下のステップに従ってデコーダによって実行され得る:
ステップ900で、復号プロセス901の間に消費されるビットを記録するように設定されたビットカウンタ、Bcurr,m、が、ゼロに初期化される、すなわち、Bcurr,m=0。各フレームmについて、デコーダは、最後の再構築されたコヒーレンスベクトル
Figure 2021520515
およびビット配分Bのコピーを取得する。
ステップ910で、選択された予測因子セットp(q*)が、ビットストリームから復号される。ビットカウンタが、選択された予測因子セットを復号するために必要とされるビットの量だけ増やされる。たとえば、2つのビットが、選択された予測因子セットを復号するために必要とされる場合、ビットカウンタ、Bcurr,m、は、2だけ増やされる、すなわち、Bcurr,m=Bcurr,m+2。
ステップ920で、エンコーダで使用される重み係数に対応する予測重み係数αが、導出される。
ステップ930において帯域b=1,2..Nbndのそれぞれについて、以下のステップが実行される:
ステップ940で、内部の予測値、
Figure 2021520515
、が取得される。第1の帯域のフレーム内予測が、エンコーディングプロセス701のステップ740と同様に取得される。それに応じて、第1のフレームのフレーム内予測は、ゼロにセットされ得
Figure 2021520515
、第1の帯域の平均値
Figure 2021520515
またはコヒーレンス値が、ビットストリームから復号され得、そして、第1のフレームのフレーム内予測が、再構築された値にセットされ得る
Figure 2021520515
。係数が復号された場合、ビットカウンタ、Bcurr,m、が、符号化のために必要とされるビットの量だけ増やされる。たとえば、3つのビットが、係数の符号化のために必要とされる場合、ビットカウンタ、Bcurr,m、は、3だけ増やされる、すなわち、Bcurr,m=Bcurr,m+3。
残りの帯域b=2,3,..Nbndについて、フレーム内予測
Figure 2021520515
は、前に復号されたコヒーレンス値に基づく、すなわち、
Figure 2021520515
ステップ950で、フレーム間予測値、
Figure 2021520515
、が、エンコーディングプロセス701のステップ750と同様に取得される。一例として、帯域bの最後の再構築された値は、フレーム間予測値のために使用され得る、すなわち、
Figure 2021520515
ステップ960で、加重予測、
Figure 2021520515
、は、フレーム内予測、
Figure 2021520515
、フレーム間予測、
Figure 2021520515
、および予測重み係数αに基づいて、形成される。いくつかの実施形態において、加重予測は、
Figure 2021520515
によって与えられる。
ステップ970で、再構築された予測残差、
Figure 2021520515
、が復号される。ビットカウンタ、Bcurr、m、が、ビット制限未満である場合、すなわち、Bcurr、m<B、再構築された予測残差は、入手可能な量子化器インデックスから導出される
Figure 2021520515
。ビットカウンタが、ビット制限と等しいまたはこれを超える場合、再構築された予測残差は、ゼロにセットされる、すなわち、
Figure 2021520515
ステップ980で、コヒーレンス値
Figure 2021520515
が、再構築された予測残差および加重予測に基づいて再構築される、すなわち、
Figure 2021520515
。ステップ990で、ビットカウンタがインクリメントされる。
いくつかの実施形態において、CNGのさらなる強化が、エンコーダにおいて必要とされ得る。そのような実施形態において、ローカルデコーダは、再構築されたコヒーレンス値
Figure 2021520515
が使用される、エンコーダ内で実行されることになる。
図10は、ベクトルを符号化するために送信ノード200aのエンコーダによって実行される、いくつかの実施形態による、プロセス1000を示す流れ図である。プロセス1000は、エンコーダが予測重み係数を形成する、ステップS1002で開始し得る。以下のステップS1004からS1014は、各ベクトル要素について繰り返され得る。ステップS1004で、エンコーダが、ベクトル要素の第1の予測を形成する。いくつかの実施形態において、第1の予測は、ベクトルのシーケンス内の現在のベクトルに基づくフレーム内予測である。そのような実施形態において、フレーム内予測は、1セットの予測因子から予測因子を選択することと、選択された予測因子を現在のベクトルの再構築された要素に適用することと、選択された予測因子に対応するインデックスを符号化することとを含む、プロセスを実行することによって、形成される。ステップS1006で、エンコーダが、ベクトル要素の第2の予測を形成する。いくつかの実施形態において、第2の予測は、再構築されたベクトルのシーケンス内の1つまたは複数の前のベクトルに基づくフレーム間予測である。
ステップS1008で、エンコーダが、予測重み係数を使用する第2の予測および第1の予測を結合予測内に結合させる。
ステップS1010で、エンコーダが、ベクトル要素および結合予測を使用する予測残差を形成する。ステップS1012で、エンコーダが、可変ビットレート方式で予測残差を符号化する。いくつかの実施形態において、予測残差が、量子化されて第1の残差量子化器インデックスを形成し、そこで、第1の残差量子化器インデックスは、第1のコードワードに関連する。いくつかの実施形態において、可変ビットレート方式を用いる予測残差の符号化のステップは、第1のコードワードの長さが残りのビットの量を超えていないと判定することの結果として、第1の残差量子化器インデックスを符号化することを含む。いくつかの実施形態において、可変ビットレート方式を用いる予測残差の符号化のステップは、第1のコードワードの長さは残りのビットの量を超えていると判定することの結果として、第2の残差量子化器インデックスを取得することを含み、そこで、第2の残差量子化器インデックスは、第2のコードワードに関連しており、そこで、第2のコードワードの長さは、第1のコードワードの長さよりも短い。そのような実施形態において、プロセス600は、エンコーダが、第2のコードワードの長さが残りのビットの判定された量を超えているかどうかを判定する、さらなるステップを含む。
ステップS1014で、エンコーダは、結合予測および予測残差に基づいてベクトル要素を再構築する。ステップS1016で、エンコーダが、符号化された予測残差を送信する。いくつかの実施形態において、エンコーダはまた、予測重み係数を符号化し、符号化された予測重み係数を送信する。
いくつかの実施形態において、プロセス1000は、エンコーダが、第1の入力チャネルで第1の信号を受信し、第2の入力チャネルで第2の信号を受信し、第1の信号および第2の信号のスペクトル特性を判定し、第1の信号および第2の信号の判定されたスペクトル特性に基づいて空間コヒーレンスを判定し、空間コヒーレンスに基づいてベクトルを判定する、さらなるステップを含む。
図11は、ベクトルを復号するために受信ノード200bのデコーダによって実行される、いくつかの実施形態による、プロセス1100を示す流れ図である。プロセス1100は、デコーダが予測重み係数を取得する、ステップ1102で開始し得る。いくつかの実施形態において、予測重み係数を取得するステップは、(i)予測重み係数を導出すること、あるいは(ii)予測重み係数を受信および復号することを含む。以下のステップS1104からS1112は、ベクトルの各要素について繰り返され得る。ステップS1104で、デコーダは、ベクトル要素の第1の予測を形成する。いくつかの実施形態において、第1の予測は、ベクトルのシーケンス内の現在のベクトルに基づくフレーム内予測である。そのような実施形態において、フレーム内予測は、予測因子を受信および復号することと復号された予測因子を現在のベクトルの再構築された要素に適用することとを含むプロセスを実行することによって、形成される。ステップS1106で、デコーダが、ベクトル要素の第2の予測を形成する。いくつかの実施形態において、第2の予測は、ベクトルのシーケンス内の1つまたは複数の前のベクトルに基づくフレーム間予測である。
ステップS1108で、デコーダが、予測重み係数を使用する第2の予測および第1の予測を結合予測内に結合させる。
ステップS1110で、デコーダが、受信された符号化された予測残差を復号する。いくつかの実施形態において、符号化された予測残差を復号するステップは、復号のために利用可能な残りのビットの量を判定することと、符号化された予測残差を復号することが残りのビットの量を超えるかどうかを判定することとを含む。いくつかの実施形態において、符号化された予測残差を復号するステップは、符号化された予測残差を復号することが残りのビットの量を超えると判定することの結果として、予測残差をゼロにセットすることを含む。いくつかの実施形態において、符号化された予測残差を復号するステップは、符号化された予測残差を復号することが残りのビットの量を超えないと判定することの結果として予測インデックスに基づいて予測残差を導出することを含み、そこで、予測インデックスは、予測残差の量子化である。
ステップS1112で、デコーダが、結合予測および予測残差に基づいてベクトル要素を再構築する。いくつかの実施形態において、ベクトルは、一連のベクトルのうちの1つである。いくつかの実施形態において、プロセス1100は、デコーダが、再構築されたベクトルに基づいて少なくとも2つの出力チャネルの信号を生成する、ステップをさらに含む。
図12は、いくつかの機能ユニットに関して、一実施形態による送信ノード200aの構成要素を概略的に示す。処理回路210は、たとえば、記憶媒体230の形で、コンピュータプログラム製品1410(図14にあるような)に記憶されたソフトウェア命令を実行する能力を有する、適切な中央処理装置(CPU)、マルチプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)などのうちの1つまたは複数の任意の組合せを使用して実現される。処理回路210はさらに、少なくとも1つの特定用途向け集積回路(ASIC)、またはフィールドプログラマブルゲートアレイ(FPGA)として提供され得る。
具体的には、処理回路210は、前述のように、1セットの動作、またはステップを送信ノード200aに実行させるように設定される。たとえば、記憶媒体230は、動作のセットを記憶することができ、処理回路210は、記憶媒体230から動作のセットを検索して、その動作のセットを送信ノード200aに実行させるように設定され得る。動作のセットは、1セットの実行可能命令として提供され得る。したがって、処理回路210は、それにより、本明細書で開示される方法を実行するように配置される。
一実施形態において、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための送信ノード200aは、処理回路210を備える。処理回路は、少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を送信ノードに判定させ、それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定させるように設定され、そこで、空間コヒーレンスは、知覚的重要性尺度に関連付けられる。送信ノードはさらに、空間コヒーレンスを周波数帯に分けるようにさせられ、そこで、空間コヒーレンスの圧縮表現は、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される。送信ノードはさらに、受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするために、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードへシグナリングさせられる。
送信ノード200aにさらに、ベクトルの第1の予測、ベクトルの第2の予測、予測重み係数、ならびにベクトルおよび結合予測を使用する予測残差を形成することによって空間コヒーレンスベクトルを符号化することを行わせ得る。送信ノードにさらに、可変ビットレート方式で予測残差を符号化すること、および結合予測および予測残差に基づいてベクトルを再構築することを行わせ得る。送信ノードにさらに、符号化された予測重み係数および符号化された予測残差を受信ノード200bに送信することを行わせ得る。
記憶媒体230はまた、たとえば、磁気メモリ、光メモリ、ソリッドステートメモリまたはさらには遠隔に取り付けられたメモリのうちの任意の単独の1つまたは組合せでもよい、永続記憶装置を備え得る。送信ノード200aが、受信ノード200bとの通信のために少なくとも設定された通信インターフェース220をさらに備え得る。そのようなものとして、通信インターフェース220は、アナログおよびデジタル構成要素を備える、1つまたは複数の送信機および受信機を備え得る。処理回路210は、たとえば、通信インターフェース220および記憶媒体230にデータおよび制御信号を送信することによって、通信インターフェース220からデータおよび報告を受信することによって、および記憶媒体230からデータおよび命令を取得することによって、送信ノード200aの一般動作を制御する。送信ノード200aの他の構成要素、ならびに関連機能は、本明細書で示される概念を分かりにくくしないために、省略される。
図13は、いくつかの機能モジュールに関して、一実施形態による送信ノード200aの構成要素を概略的に示す。図13の送信ノード200aは、いくつかの機能モジュール、ステップS102、S202を実行するように設定された判定モジュール210aと、ステップS104、S204を実行するように設定された判定モジュール210bと、ステップS106を実行するように設定された分割モジュール210cと、ステップS108、S206を実行するように設定された信号モジュール210dと、を備える。図13の送信ノード200aはさらに、いくつかの任意選択の機能モジュール(図8に示さず)を備え得る。送信ノードは、たとえば、ベクトルの第1の予測を形成するための第1の形成ユニット、ベクトルの第2の予測を形成するための第2の形成ユニット、予測重み係数を形成および符号化するための第3の形成ユニットおよびエンコーディングユニット、予測重み係数を使用する第2の予測および第1の予測を結合予測内に結合させるための結合ユニット、ベクトルおよび結合予測を使用する予測残差を形成するための第4の形成ユニット、可変ビットレート方式を用いた予測残差の符号化のためのエンコーディングユニット1014を備え得る。信号モジュール210dは、符号化された予測重み係数および符号化された予測残差を送信するためにさらに設定され得る。
一般的には、各機能モジュール210a〜210dは、1つの実施形態においてハードウェアのみにおいて実装され得、別の実施形態においてソフトウェアを用いて実装され得る、すなわち、後者の実施形態は、処理回路で実行されるとき、図12に関連して前述された対応するステップを送信ノード200aに実行させる、記憶媒体230に記憶されたコンピュータプログラム命令を有する。モジュールはコンピュータプログラムの部分に対応するけれども、それらはそこで別個のモジュールである必要はないこともまた述べられるべきであるが、それらがソフトウェアにおいて実装される方法は、使用されるプログラミング言語に依存する。好ましくは、1つまたは複数のまたはすべての機能モジュール210a〜210dは、処理回路210によって、場合により通信インターフェース220および/または記憶媒体230と連携して、実装され得る。したがって、処理回路210は、機能モジュール210a〜210dによって提供されるものとしての記憶媒体230フェッチ命令を形成し、これらの命令を実行するように設定され得、それにより、本明細書で開示されるようないずれかのステップを実行する。
送信ノード200aは、独立型デバイスとしてまたは少なくとも1つのさらなるデバイスの一部としても提供され得る。たとえば、図1の例にあるように、いくつかの態様では、送信ノード200aは、無線トランシーバデバイス200の一部である。したがって、いくつかの態様では、本明細書で開示されるような送信ノード200aを備える無線トランシーバデバイス200が提供される。いくつかの態様では、無線トランシーバデバイス200はさらに、受信ノード200bを備える。
別法として、送信ノード200aの機能は、少なくとも2つのデバイス、またはノードの間で分散され得る。これらの少なくとも2つのノード、またはデバイスは、同じネットワーク部分の一部でもよく、または少なくとも2つのそのようなネットワーク部分の間に広がり得る。したがって、送信ノード200aによって実行される命令の第1の部分は、第1のデバイスにおいて実行され得、そして、送信ノード200aによって実行される命令の第2の部分は、第2のデバイスにおいて実行され得、本明細書で開示される実施形態は、送信ノード200aによって実行される命令が実行され得る任意の特定の数のデバイスに限定されない。したがって、本明細書で開示される実施形態による方法は、クラウドコンピュータ環境内に存在する送信ノード200aによって実行されるのに適している。したがって、単一の処理回路210が、図12に示されているが、処理回路210は、複数のデバイス、またはノードの間で分散され得る。同じことが、図13の機能モジュール210a〜210dおよび図14のコンピュータプログラム1420に適用される(下記を参照)。
受信ノード200bは、コヒーレンスを再構築するためのおよび最初のサウンドに類似したステレオ画像を有する快適雑音信号を作成するためのデコーダを備える。デコーダはさらに、ベクトルの第1の予測およびベクトルの第2の予測を形成するように、ならびに予測重み係数を取得するように設定され得る。デコーダはさらに、予測重み係数を使用する第2の予測および第1の予測を結合予測内に結合させるように設定され得る。デコーダはさらに、結合予測と受信および復号された予測残差とに基づいてベクトルを再構築するように設定され得る。
図14は、コンピュータ可読記憶媒体1430を備えるコンピュータプログラム製品1410の1つの例を示す。このコンピュータ可読記憶媒体1430に、コンピュータプログラム1420が記憶され得、コンピュータプログラム1420は、処理回路210とそこに動作可能に結合されたエンティティおよびデバイス、たとえば通信インターフェース220および記憶媒体230、とに本明細書に記載の実施形態による方法を実行させることができる。それにより、コンピュータプログラム1420および/またはコンピュータプログラム製品1410は、本明細書で開示されるような任意のステップを実行するための手段を提供することができる。
図14の例において、コンピュータプログラム製品1410は、光ディスク、たとえばCD(コンパクトディスク)またはDVD(デジタル多用途ディスク)またはブルーレイディスク、として示されている。コンピュータプログラム製品1410はまた、メモリ、たとえば、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、または電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、として、およびさらに具体的にはUSB(Universal Serial Bus:ユニバーサルシリアルバス)メモリもしくはフラッシュメモリ、たとえば、コンパクトフラッシュメモリ、などの外部メモリ内のデバイスの不揮発性記憶媒体として実施され得る。したがって、コンピュータプログラム1420は、ここでは、図示された光ディスク上のトラックとして概略的に示されているが、コンピュータプログラム1420は、コンピュータプログラム製品1410に適した任意の方法で記憶され得る。
本明細書で開示される提案されている解決法は、ステレオエンコーダおよびデコーダアーキテクチャあるいはマルチチャネルエンコーダおよびデコーダに適用され、そこで、チャネルコヒーレンスは、チャネルペアで考慮される。
図15は、いくつかの実施形態によるパラメトリックステレオエンコーディングおよび復号システム1500を示す。パラメトリックステレオエンコーディングおよび復号システム1500は、CNGエンコーダ1504を含むモノエンコーダ1503と、CNGデコーダ1506を含むモノデコーダ1505とを備える。エンコーダ1501は、入力チャネルペア1507A〜1507Bの分析を実行し、パラメトリック分析1508を介してステレオ画像のパラメトリック表現を取得し、ダウンミックス1509を介してチャネルを単一のチャネルに減らし、それにより、ダウンミックスされた信号を取得する。ダウンミックスされた信号は、モノエンコーダ1503によってモノエンコーディングアルゴリズムを用いて符号化され、ステレオ画像のパラメトリック表現が、パラメータエンコーダ1510によって符号化される。ステレオ画像の符号化されたダウンミックスされた信号およびパラメトリック表現が、ビットストリーム1511を介して送信される。デコーダ1502は、モノデコーダ1505を使用してモノ復号アルゴリズムを適用し、合成されたダウンミックスされた信号を取得する。パラメータデコーダ1512は、ステレオ画像の受信されたパラメトリック表現を復号する。デコーダ1502は、ステレオ画像の復号されたパラメトリック表現を使用する合成されたチャネルペアに合成されたダウンミックス信号を変換する。パラメトリックステレオエンコーディングおよび復号システム1500はさらに、パラメトリック分析1508内のコヒーレンス分析1513およびパラメータ合成1515内のコヒーレンス合成1514を含む。パラメトリック分析1508は、入力信号1507A〜1507Bのコヒーレンスを分析するための能力を含む。モノエンコーダ1503がCNGエンコーダ1504として動作するように設定されるとき、パラメトリック分析1508は、入力信号1507A〜1507Bを分析することができる。モノエンコーダ1503はさらに、いくつかの実施形態によるステレオエンコーダVADを備え得る。ステレオエンコーダVADは、信号は背景雑音を含むことをCNGエンコーダ1504に指示することができ、それにより、CNGエンコーダ1504を起動する。それに応じて、コヒーレンス分析1513を含むCNG分析が、パラメトリック分析1508において起動され、モノエンコーダ1503が、CNGエンコーダ1504を起動させる。結果として、コヒーレンスおよびモノCNGの符号化された表現が、送信および/または記憶するためにビットストリーム1511にまとめられる。デコーダ1502が、ビットストリーム1511内のステレオCNGフレームを識別し、モノCNGおよびコヒーレンス値を復号し、目標コヒーレンスを合成する。CNGフレームを復号するとき、デコーダ1502は、2つの合成チャネル1517A〜1517Bに対応する2つのCNGフレームを生み出す。
本明細書で提示される概念をさらに説明するための1セットの例示的実施形態が、以下に続く。
1.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための、送信ノードによって実行される方法であって、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定することと、
空間コヒーレンスを周波数帯に分けることであって、空間コヒーレンスの圧縮表現は、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、周波数帯に分けることと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードにシグナリングすることとを含む、方法。
2.知覚的重要性尺度が、少なくとも2つの入力オーディオチャネルのスペクトル特性に基づく、項目1に記載の方法。
3.知覚的重要性尺度が、少なくとも2つの入力オーディオチャネルのパワースペクトルに基づいて判定される、項目2に記載の方法。
4.知覚的重要性尺度が、少なくとも2つの入力オーディオチャネルの加重和のパワースペクトルに基づいて判定される、項目2に記載の方法。
5.空間コヒーレンスの圧縮表現が、周波数帯ごとの1つの単一値である、項目1に記載の方法。
6.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための、送信ノードによって実行される方法であって、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することであって、スペクトル特性は、知覚的重要性尺度に関連付けられる、スペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、周波数帯に分けられ、空間コヒーレンスの1つの単一値は、スペクトル特性の対応する値の知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、空間コヒーレンスを判定することと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの単一値に関する情報を受信ノードにシグナリングすることとを含む、方法。
7.スペクトル特性の所与の値の知覚的重要性尺度が、少なくとも2つの入力オーディオチャネルのオーディオ信号の合計の電力によって規定される、項目1または6に記載の方法。
8.より高いエネルギを有するスペクトル特性の値に対応する空間コヒーレンス値が、より低いエネルギを有するスペクトル特性の値に対応する空間コヒーレンス値と比較して、より大きな影響を空間コヒーレンスの前記1つの単一値に及ぼすように、各周波数帯内の空間コヒーレンス値が、重み付けされる、項目1または6に記載の方法。
9.少なくとも2つのオーディオチャネルの、フレームインデックスmおよびサンプルインデックスnのための、オーディオ信号l(m,n)、r(m,n)が、スペクトル特性が判定される前に、それぞれの窓処理される信号lwin(m,n)、rwin(m,n)を形成するために窓処理される、項目1または6に記載の方法。
10.フレームインデックスmおよびサンプルインデックスkのための空間コヒーレンスC(m,k)が、次のように判定される、項目9に記載の方法:
Figure 2021520515
そこで、L(m,k)は、窓処理されるオーディオ信号lwin(m,n)のスペクトルであり、R(m,k)は、窓処理されるオーディオ信号rwin(m,n)のスペクトルであり、そして、*は、複素共役を示す。
11.lr(m,n)=l(m,n)+r(m,n)のエネルギスペクトル|LR(m,k)|は、フレームm内の知覚的重要性尺度を規定し、空間コヒーレンス値に重み付けするために使用される、項目10に記載の方法。
12.各周波数帯は、下縁と上縁との間に広がり、そして、フレームインデックスmおよび周波数帯bのための空間コヒーレンスの前記1つの単一値は、C(m,b)で示され、次のように判定される:
Figure 2021520515
そこで、Nbandは、周波数帯の総数を示し、そして、limit(b)は、周波数帯bのより低い周波数ビンを示す、項目11に記載の方法。
13.limit(b)が、関数またはルックアップテーブルとして与えられる、項目12に記載の方法。
14.空間コヒーレンスが、等しくない長さの周波数帯に分けられる、項目1または6に記載の方法。
15.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための送信ノードであって、処理回路を備え、処理回路は、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定することと、
空間コヒーレンスを周波数帯に分けることであって、空間コヒーレンスの圧縮表現が、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、周波数帯に分けることと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードにシグナリングすることと
を送信ノードに行わせるように設定される、送信ノード。
16.項目2から5のいずれか一項に記載の方法を実行するようにさらに設定された、項目15に記載の送信ノード。
17.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのであって、処理回路を備え、処理回路は、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することであって、スペクトル特性は、知覚的重要性尺度に関連付けられる、スペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、周波数帯に分けられ、空間コヒーレンスの1つの単一値は、スペクトル特性の対応する値の知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、空間コヒーレンスを判定することと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの単一値に関する情報を受信ノードにシグナリングすることと
を送信ノードに行わせるように設定される、送信ノード。
18.項目7から14のいずれか一項に記載の方法を実行するようにさらに設定された、項目17に記載の送信ノード。
19.無線トランシーバデバイスであって、項目15から18のいずれか一項に記載の送信ノードを備える無線トランシーバデバイス。
20.受信ノードをさらに備える、項目19に記載の無線トランシーバデバイス。
21.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのコンピュータプログラムであって、コンピュータコードを備え、コンピュータコードが、送信ノードの処理回路で実行されるとき、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定することと、
空間コヒーレンスを周波数帯に分けることであって、空間コヒーレンスの圧縮表現が、知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、周波数帯に分けることと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの圧縮表現に関する情報を受信ノードにシグナリングすることと
を送信ノードに行わせる、コンピュータプログラム。
22.受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのコンピュータプログラムであって、コンピュータコードを備え、コンピュータコードが送信ノードの処理回路で実行されるとき、
少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することであって、スペクトル特性は、知覚的重要性尺度に関連付けられる、スペクトル特性を判定することと、
それぞれの入力オーディオチャネルのオーディオ信号間の空間コヒーレンスを判定することであって、空間コヒーレンスは、周波数帯に分けられ、空間コヒーレンスの1つの単一値は、スペクトル特性の対応する値の知覚的重要性尺度に従って各周波数帯内の空間コヒーレンス値に重み付けすることによって、周波数帯ごとに判定される、空間コヒーレンスを判定することと、
受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成を可能にするための、スペクトル特性に関する情報および周波数帯ごとの空間コヒーレンスの単一値に関する情報を受信ノードにシグナリングすることと
を送信ノードに行わせる、コンピュータプログラム。
23.項目21および22のうちの少なくとも1つの項に記載のコンピュータプログラム、およびコンピュータプログラムが記憶されるコンピュータ可読記憶媒体を備える、コンピュータプログラム製品。
一般に、例示的実施形態および添付の特許請求の範囲で使用されるすべての用語は、本明細書において別段の明示的規定のない限り、その技術分野における通常の意味に従って解釈されるものとする。別段の明示的記述のない限り、「1つの/一/その要素、装置、構成要素、手段、モジュール、ステップなど」のすべての参照は、要素、装置、構成要素、手段、モジュール、ステップなどの少なくとも1つの例を参照するものとして解釈されるものとする。本明細書で開示されるいずれの方法のステップも、明示的に記述されていない限り、開示された正確な順番で実行されなくてもよい。
本発明の概念は、主に、いくつかの実施形態を参照して前述されている。しかしながら、前述の開示された実施形態以外の実施形態が、列挙された実施形態の添付のリストによって規定されるものとしての、本発明の概念の範囲内で同等に可能であることが、当業者には容易に理解されよう。

Claims (15)

  1. 受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための、送信ノードによって実行される方法であって、
    少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定すること(S102)と、
    それぞれの前記入力オーディオチャネルの前記オーディオ信号間の空間コヒーレンスを判定すること(S104)であって、前記空間コヒーレンスは、知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定すること(S104)と、
    前記空間コヒーレンスを周波数帯に分けること(S106)であって、前記空間コヒーレンスの圧縮表現は、前記知覚的重要性尺度に従って各周波数帯内の前記空間コヒーレンスに重み付けすることによって周波数帯ごとに判定される、周波数帯に分けること(S106)と、
    前記受信ノードにおける前記少なくとも2つのオーディオチャネルのための前記快適雑音の前記生成を可能にするための、前記スペクトル特性に関する情報および前記周波数帯ごとの前記空間コヒーレンスの前記圧縮表現に関する情報を前記受信ノードにシグナリングすること(S108)と
    を含む、方法。
  2. 前記空間コヒーレンスの前記圧縮表現が、周波数帯ごとの1つの単一値である、請求項1に記載の方法。
  3. 前記知覚的重要性尺度が、前記少なくとも2つの入力オーディオチャネルの前記スペクトル特性に基づく、請求項1または2に記載の方法。
  4. 前記知覚的重要性尺度が、前記少なくとも2つの入力オーディオチャネルのパワースペクトルに基づいて判定される、請求項3に記載の方法。
  5. 前記知覚的重要性尺度が、前記少なくとも2つの入力オーディオチャネルの加重和のパワースペクトルに基づいて判定される、請求項3に記載の方法。
  6. 前記スペクトル特性の所与の値の前記知覚的重要性尺度が、前記少なくとも2つの入力オーディオチャネルの前記オーディオ信号の合計のパワースペクトルに基づく、請求項1または2に記載の方法。
  7. より高いエネルギを有する周波数係数の値に対応する前記空間コヒーレンス値が、より低いエネルギを有する周波数係数の値に対応する前記空間コヒーレンス値と比較して、前記空間コヒーレンスの前記1つの単一値により多くの影響を及ぼすように、各周波数帯内の前記空間コヒーレンス値が、重み付けされる、請求項2に記載の方法。
  8. lr(m,n)=l(m,n)+r(m,n)のエネルギスペクトル|LR(m,k)|、ここで、l(m,n)が、左のチャネルの入力信号を示し、r(m,n)が、右のチャネルの入力信号を示す、は、フレームm内の前記知覚的重要性尺度を規定し、前記空間コヒーレンス値を重み付けするために使用される、請求項1に記載の方法。
  9. フレームインデックスmおよび周波数帯bの前記空間コヒーレンスの1つの単一値C(m,b)が、
    Figure 2021520515
    として判定され、ここで、Nbandが、周波数帯の総数を示し、limit(b)が、周波数帯bの最低の周波数ビンを示す、請求項8に記載の方法。
  10. 受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするための送信ノード(200a)であって、処理回路(210)を備え、前記処理回路が、
    少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、
    それぞれの前記入力オーディオチャネルの前記オーディオ信号間の空間コヒーレンスを判定することであって、前記空間コヒーレンスは、前記知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定することと、
    前記空間コヒーレンスを周波数帯に分けることであって、前記空間コヒーレンスの圧縮表現は、前記知覚的重要性尺度に従って各周波数帯内の前記空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される、周波数帯に分けることと、
    前記受信ノードにおける前記少なくとも2つのオーディオチャネルのための前記快適雑音の前記生成を可能にするための、前記スペクトル特性に関する情報および周波数帯ごとの前記空間コヒーレンスの前記圧縮表現に関する情報を前記受信ノードにシグナリングすることと
    を前記送信ノードに行わせるように設定された、送信ノード。
  11. 請求項2から9のいずれか一項に記載の方法を実行するようにさらに設定された、請求項10に記載の送信ノード。
  12. 請求項10または11に記載の送信ノードを備える無線トランシーバデバイス。
  13. 前記受信ノードをさらに備える、請求項12に記載の無線トランシーバデバイス。
  14. 受信ノードにおける少なくとも2つのオーディオチャネルのための快適雑音の生成をサポートするためのコンピュータプログラム(1420)であって、コンピュータコードを備え、コンピュータコードが前記送信ノードの処理回路で実行されるとき、
    少なくとも2つの入力オーディオチャネルのオーディオ信号のスペクトル特性を判定することと、
    それぞれの前記入力オーディオチャネルの前記オーディオ信号間の空間コヒーレンスを判定することであって、前記空間コヒーレンスは、知覚的重要性尺度に関連付けられる、空間コヒーレンスを判定することと、
    前記空間コヒーレンスを周波数帯に分けることであって、前記空間コヒーレンスの圧縮表現は、前記知覚的重要性尺度に従って各周波数帯内の前記空間コヒーレンスに重み付けすることによって、周波数帯ごとに判定される、周波数帯に分けることと、
    前記受信ノードにおける前記少なくとも2つのオーディオチャネルのための前記快適雑音の前記生成を可能にするための、前記スペクトル特性に関する情報および周波数帯ごとの前記空間コヒーレンスの前記圧縮表現に関する情報を前記受信ノードにシグナリングすることと
    を前記送信ノードに行わせる、コンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラム、および前記コンピュータプログラムが記憶されるコンピュータ可読記憶媒体を備える、コンピュータプログラム製品(1410)。
JP2020554191A 2018-04-05 2019-04-05 快適雑音の生成のサポート Active JP7085640B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022091269A JP7438268B2 (ja) 2018-04-05 2022-06-06 快適雑音の生成のサポート

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862652949P 2018-04-05 2018-04-05
US201862653078P 2018-04-05 2018-04-05
US201862652941P 2018-04-05 2018-04-05
US62/653,078 2018-04-05
US62/652,941 2018-04-05
US62/652,949 2018-04-05
PCT/EP2019/058650 WO2019193156A1 (en) 2018-04-05 2019-04-05 Support for generation of comfort noise

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022091269A Division JP7438268B2 (ja) 2018-04-05 2022-06-06 快適雑音の生成のサポート

Publications (2)

Publication Number Publication Date
JP2021520515A true JP2021520515A (ja) 2021-08-19
JP7085640B2 JP7085640B2 (ja) 2022-06-16

Family

ID=66102706

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020554191A Active JP7085640B2 (ja) 2018-04-05 2019-04-05 快適雑音の生成のサポート
JP2022091269A Active JP7438268B2 (ja) 2018-04-05 2022-06-06 快適雑音の生成のサポート

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022091269A Active JP7438268B2 (ja) 2018-04-05 2022-06-06 快適雑音の生成のサポート

Country Status (8)

Country Link
US (8) US11495237B2 (ja)
EP (6) EP3776546B1 (ja)
JP (2) JP7085640B2 (ja)
KR (3) KR102548184B1 (ja)
CN (3) CN112119457A (ja)
DK (1) DK3776547T3 (ja)
MX (1) MX2020010468A (ja)
WO (3) WO2019193156A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112119457A (zh) 2018-04-05 2020-12-22 瑞典爱立信有限公司 可截断的预测编码
GB2595891A (en) * 2020-06-10 2021-12-15 Nokia Technologies Oy Adapting multi-source inputs for constant rate encoding
AU2021288690A1 (en) * 2020-06-11 2023-01-19 Dolby Laboratories Licensing Corporation Methods and devices for encoding and/or decoding spatial background noise within a multi-channel input signal
GB2596138A (en) * 2020-06-19 2021-12-22 Nokia Technologies Oy Decoder spatial comfort noise generation for discontinuous transmission operation
US20230282220A1 (en) * 2020-07-07 2023-09-07 Telefonaktiebolaget Lm Ericsson (Publ) Comfort noise generation for multi-mode spatial audio coding
GB2598104A (en) * 2020-08-17 2022-02-23 Nokia Technologies Oy Discontinuous transmission operation for spatial audio parameters
WO2022042908A1 (en) * 2020-08-31 2022-03-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel signal generator, audio encoder and related methods relying on a mixing noise signal
CN117223054A (zh) * 2021-04-29 2023-12-12 沃伊斯亚吉公司 经解码的声音信号中的多声道舒适噪声注入的方法及设备
WO2023031498A1 (en) * 2021-08-30 2023-03-09 Nokia Technologies Oy Silence descriptor using spatial parameters
WO2023110082A1 (en) 2021-12-15 2023-06-22 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive predictive encoding
WO2024056701A1 (en) * 2022-09-13 2024-03-21 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive stereo parameter synthesis
WO2024074302A1 (en) 2022-10-05 2024-04-11 Telefonaktiebolaget Lm Ericsson (Publ) Coherence calculation for stereo discontinuous transmission (dtx)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005509926A (ja) * 2001-11-23 2005-04-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 知覚ノイズの置換え
US20170047072A1 (en) * 2014-02-14 2017-02-16 Telefonaktiebolaget Lm Ericsson (Publ) Comfort noise generation

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7920697B2 (en) 1999-12-09 2011-04-05 Broadcom Corp. Interaction between echo canceller and packet voice processing
US7006636B2 (en) 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US20040002856A1 (en) * 2002-03-08 2004-01-01 Udaya Bhaskar Multi-rate frequency domain interpolative speech CODEC system
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CN1458646A (zh) * 2003-04-21 2003-11-26 北京阜国数字技术有限公司 一种滤波参数矢量量化和结合量化模型预测的音频编码方法
CN1677491A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
CN1677493A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
JP2008519306A (ja) * 2004-11-04 2008-06-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 信号の組のエンコード及びデコード
WO2008004940A1 (en) 2006-07-07 2008-01-10 Telefonaktiebolaget Lm Ericsson (Publ) Video data management
DK3401907T3 (da) * 2007-08-27 2020-03-02 Ericsson Telefon Ab L M Fremgangsmåde og indretning til perceptuel spektral afkodning af et audiosignal omfattende udfyldning af spektrale huller
EP2283483B1 (en) * 2008-05-23 2013-03-13 Koninklijke Philips Electronics N.V. A parametric stereo upmix apparatus, a parametric stereo decoder, a parametric stereo downmix apparatus, a parametric stereo encoder
EP2345027B1 (en) * 2008-10-10 2018-04-18 Telefonaktiebolaget LM Ericsson (publ) Energy-conserving multi-channel audio coding and decoding
US8817991B2 (en) * 2008-12-15 2014-08-26 Orange Advanced encoding of multi-channel digital audio signals
US20120230405A1 (en) 2009-10-28 2012-09-13 Media Tek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
KR101690252B1 (ko) 2009-12-23 2016-12-27 삼성전자주식회사 신호 처리 방법 및 장치
EP2526546A4 (en) * 2010-01-22 2013-08-28 Agency Science Tech & Res METHOD AND DEVICE FOR DETERMINING NUMBER OF BITS FOR ENCODING AUDIO SIGNAL
US9236063B2 (en) * 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
ES2664090T3 (es) * 2011-03-10 2018-04-18 Telefonaktiebolaget Lm Ericsson (Publ) Relleno de subvectores no codificados en señales de audio codificadas por transformada
RU2571561C2 (ru) * 2011-04-05 2015-12-20 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования, способ декодирования, кодер, декодер, программа и носитель записи
CN104396249B (zh) 2012-06-20 2017-12-26 寰发股份有限公司 可伸缩视频编码的层间预测的方法和设备
US9906786B2 (en) 2012-09-07 2018-02-27 Qualcomm Incorporated Weighted prediction mode for scalable video coding
DK2901715T3 (da) 2012-09-28 2017-01-02 Sonova Ag Metode til anvendelse af et binauralt høresystem og et binauralt høresystem / method for operating a binaural hearing system and binaural hearing system
CN107516530B (zh) * 2012-10-01 2020-08-25 日本电信电话株式会社 编码方法、编码装置以及记录介质
US9318092B2 (en) 2013-01-29 2016-04-19 2236008 Ontario Inc. Noise estimation control system
CN104050969A (zh) * 2013-03-14 2014-09-17 杜比实验室特许公司 空间舒适噪声
EP2976768A4 (en) * 2013-03-20 2016-11-09 Nokia Technologies Oy AUDIO SIGNAL ENCODER COMPRISING A MULTI-CHANNEL PARAMETER SELECTOR
GB2515593B (en) 2013-12-23 2015-12-23 Imagination Tech Ltd Acoustic echo suppression
CN104978970B (zh) * 2014-04-08 2019-02-12 华为技术有限公司 一种噪声信号的处理和生成方法、编解码器和编解码系统
EP2980793A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder, system and methods for encoding and decoding
US10366698B2 (en) * 2016-08-30 2019-07-30 Dts, Inc. Variable length coding of indices and bit scheduling in a pyramid vector quantizer
US9865274B1 (en) * 2016-12-22 2018-01-09 Getgo, Inc. Ambisonic audio signal processing for bidirectional real-time communication
US10367948B2 (en) * 2017-01-13 2019-07-30 Shure Acquisition Holdings, Inc. Post-mixing acoustic echo cancellation systems and methods
US10170134B2 (en) 2017-02-21 2019-01-01 Intel IP Corporation Method and system of acoustic dereverberation factoring the actual non-ideal acoustic environment
CN112119457A (zh) 2018-04-05 2020-12-22 瑞典爱立信有限公司 可截断的预测编码
US11025951B2 (en) 2019-01-13 2021-06-01 Tencent America LLC Method and apparatus for video coding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005509926A (ja) * 2001-11-23 2005-04-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 知覚ノイズの置換え
US20170047072A1 (en) * 2014-02-14 2017-02-16 Telefonaktiebolaget Lm Ericsson (Publ) Comfort noise generation

Also Published As

Publication number Publication date
CN112154502A (zh) 2020-12-29
EP4273858A1 (en) 2023-11-08
EP3776546B1 (en) 2022-01-19
KR20200140353A (ko) 2020-12-15
US20210151060A1 (en) 2021-05-20
EP3776547A1 (en) 2021-02-17
US20230131249A1 (en) 2023-04-27
US20210158825A1 (en) 2021-05-27
EP3776547B1 (en) 2021-08-11
MX2020010468A (es) 2020-10-22
US20210090582A1 (en) 2021-03-25
JP7438268B2 (ja) 2024-02-26
US11495237B2 (en) 2022-11-08
DK3776547T3 (da) 2021-09-13
KR102548184B1 (ko) 2023-06-28
US11862181B2 (en) 2024-01-02
JP7085640B2 (ja) 2022-06-16
KR20200138367A (ko) 2020-12-09
EP4047601A3 (en) 2022-12-21
US11978460B2 (en) 2024-05-07
JP2022126688A (ja) 2022-08-30
EP3776546A1 (en) 2021-02-17
WO2019193173A1 (en) 2019-10-10
US20230037845A1 (en) 2023-02-09
EP4047601A2 (en) 2022-08-24
WO2019193149A1 (en) 2019-10-10
US20220328055A1 (en) 2022-10-13
KR20230058546A (ko) 2023-05-03
CN118038881A (zh) 2024-05-14
WO2019193156A1 (en) 2019-10-10
CN112119457A (zh) 2020-12-22
US11417348B2 (en) 2022-08-16
KR102535034B1 (ko) 2023-05-19
CN112154502B (zh) 2024-03-01
US11837242B2 (en) 2023-12-05
US20240161758A1 (en) 2024-05-16
US20240055008A1 (en) 2024-02-15
US11404069B2 (en) 2022-08-02
EP3776548A1 (en) 2021-02-17
EP3913626A1 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP7085640B2 (ja) 快適雑音の生成のサポート
RU2764287C1 (ru) Способ и система для кодирования левого и правого каналов стереофонического звукового сигнала с выбором между моделями двух и четырех подкадров в зависимости от битового бюджета
KR101868926B1 (ko) 노이즈 신호 처리 및 생성 방법, 인코더/디코더 및 인코딩/디코딩 시스템
US20140074488A1 (en) Encoding of stereophonic signals
US20110064229A1 (en) Audio signal decoding device and balance adjustment method for audio signal decoding device
JP2021525391A (ja) ダウンミックス信号及び残差信号を計算するための方法及び装置
CN103503065B (zh) 用于衰减低精确度重构的信号区域的方法和解码器
JP2024073419A (ja) 快適雑音の生成のサポート

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R150 Certificate of patent or registration of utility model

Ref document number: 7085640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150