JP7842798B2 - パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム - Google Patents
パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システムInfo
- Publication number
- JP7842798B2 JP7842798B2 JP2024021214A JP2024021214A JP7842798B2 JP 7842798 B2 JP7842798 B2 JP 7842798B2 JP 2024021214 A JP2024021214 A JP 2024021214A JP 2024021214 A JP2024021214 A JP 2024021214A JP 7842798 B2 JP7842798 B2 JP 7842798B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- monaural
- component
- loss
- packet loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
本明細書は、上記のパケット損失補償装置を備えるサーバおよび/または上記のパケット損失補償装置を備える通信端末を備える音声処理システムも提供する。
図1は、本明細書の実施形態を適用できる一例の音声通信システムを示す概略図である。
図2に示したように、ユーザAは通信端末Aを操作し、ユーザBは通信端末Bを操作し、ユーザCは通信端末Cを操作する。音声会議セッションでは、ユーザA、ユーザBおよびユーザCは、それぞれの通信端末A、BおよびCを介して互いに会話する。図2に示した通信端末は、図1に示したものと同じ機能を有する。ただし、通信端末A、B、およびCは、共通のデータリンク20または別々のデータリンク20を介してサーバに接続されている。データリンク20は、ポイントツーポイント接続または通信ネットワークとして実現されてよい。ユーザA、ユーザB、およびユーザCのいずれの側でも、パケット損失検出(図示せず)は、他の一人または二人の側から伝送された音声パケット上で実行される。パケット損失が検出された場合、パケット損失補償(PLC)を実行してパケット損失を補償でき、それによって再生された音声信号がより完全に聞こえ、かつパケット損失によって生じたアーチファクトがより少ない状態で聞こえるようにする。
本明細書は、音場信号に適用される適当な変換技術によって得られるモノラル成分と空間成分とのそれぞれに異なる補償方法を適用することによって、音場信号のパケット損失問題を解決しようとするものである。具体的には、本明細書は、パケット損失が起きた際に、空間音声伝送中に人工信号を構築することに関する。
前述した符号化構造を適応変換符号化と呼んでよい。前述したように、符号化はKLTなどの任意の適応変換、またはLRS信号からパラメータ固有信号への直接変換などの任意のその他の枠組で実行されてよいが、本明細書では、具体的なアルゴリズムの一例を提供して入力音声信号をパラメータ固有信号に変換する。詳細については、本明細書内の「音声信号の順方向適応変換および逆適応変換」の部を参照されたい。
パケット損失検出器300では、任意の既存の技術を採用してパケット損失を検出してよい。一般的な手法は、第1のデパケット化部200によって受信したパケットからパケット/フレームをデパケット化した連続番号を検出することであり、連続番号の不連続は、脱落した連続番号のパケット/フレームが損失したことを指している。連続番号は通常、リアルタイム転送プロトコル(Real-time Transport Protocol : RTP)形式などのVoIPパケット形式で必須のフィールドである。現時点では、1パケットは一般に1つのフレーム(一般に20ms)を含んでいるが、1パケットが2つ以上のフレームを含むことも可能であり、あるいは1つのフレームが複数のパケットに及んでいてもよい。1パケットが損失した場合、そのパケット内の全フレームが損失する。1フレームが損失した場合、1つ以上のパケットが損失した結果であるはずであり、パケット損失補償は一般にフレーム単位で実施される。つまり、PLCは、損失したパケットが原因で損失した(1つまたは複数の)フレームを復元するためのものである。したがって、本明細書の文脈では、パケット損失は一般にフレーム損失と同じことであり、解決策は一般に、例えば損失したパケット内で損失したフレーム数を強調するためにパケットに言及しなければならない場合でない限り、フレームに関して記述される。また、請求項では、「少なくとも1つの音声フレームを含む各音声パケット」という表記は、1つのフレームが2つ以上のパケットに及ぶ状況も範囲に含めると解釈すべきであり、それに対応して、「損失したパケット内で損失したフレーム(a lost frame in a lost packet)」という表記は、少なくとも1つの損失パケットが原因で「2つ以上のパケットに及んでいる少なくとも部分的に損失したフレーム(at least partially lost frame spanning more than one packet)」も範囲に含めると解釈すべきである。
前述したように、考えられる様々な入力形式および伝送形式がある。図4は、パラメータ固有信号を伝送形式として使用する一例を示している。図4に示したように、音声信号は、モノラル成分としての固有チャネル成分および空間成分としての空間パラメータを含むパラメータ固有信号として符号化され、伝送される(符号化側に関する詳細については、「音声信号の順方向適応変換および逆適応変換」の部を参照)。具体的には、例では3つの固有チャネル成分Em(m=1、2、3)、およびそれに対応する空間パラメータ、例えば拡散性d(E1の方向性)、方位角φ(E1の水平方向)、およびθ(3D空間でE2、E3がE1周りを回る回転)などがある。正常に伝送されたパケットの場合、固有チャネル成分および空間パラメータは両方とも(パケット内で)正常に伝送されるのに対し、損失したパケット/フレームの場合、固有チャネル成分および空間パラメータは両方とも損失し、新たな固有チャネル成分および空間パラメータを作成して損失したパケット/フレームの固有チャネル成分および空間パラメータに取って代わるためにPLCが実行される。送信先通信端末で、正常に伝送されるか作成された固有チャネル成分および空間パラメータを直接(例えばバイノーラル音(binaural sound)として)再生できるか、最初に適切な中間出力形式に変換できる場合、この中間出力形式はさらに別の変換を受けるか、あるいは直接再生されてよい。入力形式と同じく、中間出力形式は、任意の実行可能な形式、例えばアンビソニックス(ambisonic)のB形式(WXYまたはWXYZ音場信号)、LRSまたはその他の形式などであってよい。中間出力形式での音声信号は、直接再生されてもよいし、再生デバイスに適応するようにさらに別の変換を受けてもよい。例えば、パラメータ固有信号は、逆のKLTなどの逆適応変換を介してWXY音場信号に変換されてよく(本明細書の「音声信号の順方向適応変換および逆適応変換」の部を参照)、その後、バイノーラルの再生が要求されればバイノーラル音声信号にさらに変換されてよい。これに伴い、本明細書のパケット損失補償装置は、(可能なPLCを受ける)音声パケットに対して逆適応変換を実行して逆変換された音場信号を得るために、第2の逆変換器を備えていてよい。
変形例では、連続する損失フレームが複数ある場合、隣接の過去フレームおよび未来フレームを複製することによってその損失フレームを復元できる。最初の損失フレームがフレームpで、最後の損失フレームがフレームqであると仮定すると、前半の損失フレームは、
であり、式中a=0、1、…A-1であり、Aは前半の損失フレームの数である。また、後半の損失フレームは、
であり、式中b=0,1、…B-1であり、Bは後半の損失フレームの数である。AはBと同じであっても異なっていてもよい。上記の2つの式では、減衰係数gは全損失フレームに対して同じ値を採用しているが、異なる損失フレームには異なる値を採用してもよい。
平滑化動作のその他の例には、移動ウィンドウを用いて移動平均値を計算する方法があってよく、この移動ウィンドウは、過去フレームのみをカバーしていてもよいし、過去フレームと未来フレームとの両方をカバーしていてもよい。換言すれば、空間パラメータの値は、隣接フレームに基づいて補間アルゴリズムを介して得ることができる。このような状況では、複数の隣接の損失フレームを同じ補間動作と同時に復元できる。
マルチチャネルの信号をモノラル成分と空間成分とに分解することで、伝送に柔軟性が加わり、これによってパケット損失への耐性をいっそう向上させることができる。1つの実施形態では、通常モノラル信号成分よりも帯域幅の消費が少ない空間パラメータは、冗長データとして送ることができる。例えば、パケットpの空間パラメータは、パケットpが損失した際にその空間パラメータを隣接のパケットから抽出できるように、パケットp-1またはp+1にピギーバック(piggybacked)されてよい。さらにもう1つの実施形態では、空間パラメータは、冗長データとして送られず、単にモノラル信号成分とは異なるパケットで送られる。例えば、p番目のパケットの空間パラメータは、(p-1)番目のパケットによって伝送される。そのようにする際に、パケットpが損失すれば、その空間パラメータは、パケットp-1が損失していなければこのパケットから回復できる。欠点は、パケットp+1の空間パラメータも損失することである。
モノラル成分に対するPLC
図4では、描かれているのは、独立符号化されたビットストリーム内で符号化された領域PLCの一例であり、この場合、全固有チャネル成分E1、E2およびE3、全空間パラメータすなわちd、φ、およびθを伝送する必要があり、必要であればPLCのために復元する必要がある。
ここで、aおよびbは予測パラメータである。
または
ここでは、モノラル成分の連続数に基づいて算出された過去フレームを使用し、これはつまり、固有チャネル成分(固有チャネル成分は、その重要性に基づいて配列される)などの重要性の低いモノラル成分に対しては前の方のフレームが使用されるということである点に注意されたい。ただし、本明細書はこれに限定されない。
である。式(1’)は、m=1のときの式(1)であり、以下の考察を簡易化する目的で、最後のフレームに対する主要モノラル成分も正常に伝送されたのではなく作成されたものと仮定する点に注意されたい。
であり、
である。つまり、
上式に基づいて、以下のようになる。
この再相関を回避するためには、反復または複製を回避しなければならない。このようにするために、本明細書では、図7の実施形態に示し、図8に示した例に示したように、時間領域のPLCを設ける。
上記の例では、損失フレームの補償には、符号化の枠組が重複変換(MDCT)のため、2つの以前のフレームが必要である。非重複変換を用いる場合、時間領域フレームと周波数領域フレームは、1対1で対応する。そのため、損失フレームの補償には、1つ前のフレームで十分である。
上記で考察したPLCアルゴリズムの計算負荷は比較的大きい。したがって、いくつかの事例では、計算負荷を軽くするための措置を講じてよい。1つは、後に考察するように、E1に基づいてE2およびE3を予測することであり、もう1つは、時間領域PLCを他のより簡易な方法と組み合わせることである。
図9A、図9Bおよび図10に示した一実施形態では、独立符号化が採用されるため、各音声フレームは、E1、E2およびE3などのモノラル成分を少なくとも2つ含んでいる(図10)。図4と同様に、損失フレームの場合、パケット損失が原因で固有チャネル成分はすべて損失していて、PLCプロセスを受ける必要がある。図10の例に示したように、主要固有チャネル成分E1などの主要モノラル成分は、複製などの通常の補償の枠組または上記で考察した時間領域PLCなどの他の枠組で作成/復元できるが、重要性の低い固有チャネル成分E2およびE3などの他のモノラル成分は、上記の部で考察した予測復号化と同様の手法で、(図10の破線矢印で示したように)主要モノラル成分に基づいて作成/復元でき、よってこの手法を「予測PLC」と呼んでよい。図10の他の部分は図4のものと同様のため、これについての詳細な説明はここでは省略する。
1つの方法が、損失フレームに対して作成された1つのモノラル成分に該当する過去フレーム内のモノラル成分を、作成された1つのモノラル成分の無相関バージョンとみなすことであり、過去フレーム内のモノラル成分が正常に伝送されたかどうか、あるいは主補償部408によって作成されたかどうかは問題ではない。つまり、
または
非予測/独立符号化の問題は、正常に伝送された隣接フレームに対してであっても予測パラメータがないことである。したがって、予測パラメータは他の方法で得る必要がある。本明細書では、過去フレーム、一般には最後のフレームのモノラル成分に基づいて予測パラメータを計算でき、過去フレームまたは最後のフレームが正常に伝送されたかどうか、またはPLCで復元されたかどうかは問題ではない。
予測パラメータ計算器412は、どのような技術で実現してもよいが、実施形態の一変形例では、損失フレーム以前の最後のフレーム(the last frame before the lost frame)を用いることによって予測パラメータを計算することを提案する。以下の式は具体的な例を示しているが、これは本明細書を限定するものではない。
ここで、記号は、以前と同じ意味であり、norm()はRMS(根平均二乗)演算を指し、上付き文字Tは転置行列を表す。式(9)は、「音声信号の順方向適応変換および逆適応変換」の部の式(19)および(20)に対応し、式(10)は、同部の式(21)および(22)に対応していることに注意されたい。相違点は、式(19)~(22)は符号化側で使用され、それによって予測パラメータは同じフレームの固有チャネル成分に基づいて計算されるのに対し、式(9)および(10)は、予測PLCに対して、具体的には作成/復元された主要固有チャネル成分から重要性の低い固有チャネル成分を「予測する」ために、復号化側で使用され、したがって、予測パラメータは、以前のフレームの固有チャネル成分から計算され(正常に伝送されたかどうか、またはPLC過程で作成/復元されたかに関わらず)、
が使用される点である。いずれにしても、基本原理である式(9)および(10)ならびに式(19)~(22)はほぼ同じであり、その詳細およびその変形例については、以下で言及する「ダッカー(ducker)」スタイルのエネルギー調整(energy adjustment)を含め、「音声信号の順方向適応変換および逆適応変換」の部を参照されたい。式どうしの相違点に関して前述したのと同じ規則に基づいて、「音声信号の順方向適応変換および逆適応変換」の部に記載した他の解決法または式を、この部で記載した予測PLCに適用できる。単純に言えば、その規則とは、前のフレーム(最後のフレームなど)に対する(1つまたは複数の)予測パラメータを生成し、それを予測パラメータとして使用して、損失フレームに対する重要性の低い(1つまたは複数の)モノラル成分(固有チャネル成分)を予測することである。
推定されたパラメータの急激な変動を避けるため、上記で推定された予測パラメータは、何らかの技術を用いて平滑化されてよい。具体的な例では、「ダッカー」スタイルのエネルギー調整を行うことができ、これを以下の式ではduck()で表し、このようにして、特に音声と無音との間、またはスピーチと音楽との間の移行領域で、補償された信号のレベルが急速に変化するのを避ける。
式(11)は、簡易バージョン(式(36)および(37)に対応)に置き換えられてもよい。
上記で考察した実施形態では、各損失フレームに対して(1つまたは複数の)予測パラメータを、予測復号化器410に使用される予測パラメータ計算器412で計算でき、使用した過去フレームである予測パラメータ計算器412で計算するための基礎(basis)が、正常に伝送されたフレームであるか、または損失してから復元(作成)されたフレームであるかどうかは問題ではない。
「総合的な解決法」の部では、空間パラメータd、φ、θなどの空間成分に対するPLCについて考察した。空間パラメータの安定性は、知覚による連続性を維持する際に極めて重要である。これは、「総合的な解決法」の部で直接パラメータを平滑化することで達成される。もう1つの独立した解決法として、または「総合的な解決法」の部で考察したPLCを補足する態様として、空間パラメータへの平滑化動作を符号化側で実施できる。このように、空間パラメータは符号化側で平滑化されているため、次に復号化側では、空間パラメータに関するPLCの結果がさらに平滑かつ安定する。
ここで、Rxx_smooth(p)は、平滑化後のフレームpの変換行列であり、Rxx_smooth(p-1)は、平滑化後のフレームp-1の変換行列であり、Rxx(p)は、平滑化前のフレームpの変換行列である。αは重み係数で、(0.8,1]の範囲を有するか、あるいはフレームpの拡散性などのその他の物理的特性に基づいて適応するように生成される。
音声信号の順方向適応変換および逆適応変換
この部は、本明細書の目的に対処する例の音声信号としての役割を果たす、パラメータ固有信号などの伝送形式でどのように音声フレームを得て、対応する音声の符号化器および復号化器を得るかについてのいくつかの例を挙げるためのものである。ただし、本明細書は、明確にこれに限定されるものではない。上記で考察したPLCの装置および方法は、音声復号化器よりも前にサーバなどに配置または実現されてもよいし、送信先通信端末などにある音声復号化器に組み込まれてもよい。
上記で述べたように、符号化器1200は、取り込まれた領域(例えば「LRS」領域)から得た音場信号110を非適応変換領域(例えば「WXY」領域)内で音場信号111に変換するように構成された第1の変換部101を備えていてよい。「LRS」領域から「WXY」領域への変換は、変換[WXY]T=M(g)[LRS]Tによって実施されてよく、変換行列M(g)は以下によって求められ、
ここで、g>0は有限定数である。g=1であれば、適正な「WXY」表現が得られるが(すなわち2次元のB形式の定義に従って)、他の値gを検討してよい。
変換Vは信号適応性であり、復号化器250で逆になるため、変換Vは、効率的に符号化される必要がある。変換Vを符号化するために、以下のパラメータ化を提案する。
提案したパラメータ化は、変換Vの(1,1)要素の符号に制約を課すことに注意されたい(すなわち(1,1)要素は常に正である必要がある)。このような制約を導入することが有利であり、このような制約で性能損失が起こることは一切ない(達成した符号化利得の点で)ことを示すことができる。パラメータd、φ、θで記述される変換V(d,φ,θ)は、符号化器1200の変換部202内部(図23A)および復号化器250の対応する逆変換部105(図23B)内部で使用される。通常、パラメータd、φ、θは、共分散推定部203によって変換パラメータ符号化部204に提供され、この変換パラメータ符号化部は、変換パラメータd、φ、θを量子化して(ハフマン)符号化するように構成される212。符号化された変換パラメータ214は、空間ビットストリーム221に挿入されてよい。符号化された変換パラメータ213の復号化バージョン(これは、復号化器250で復号化された変換パラメータ213
に相当する)は無相関部202に提供され、この無相関部は、以下の変換を実施するように構成される。
その結果、無相関化された領域または固有値領域または適応変換領域の音場信号112が得られる。
は、サブ帯域単位で適用されてパラメータによる音場信号110のコーダを提供できる。第1の固有信号E1は、定義上、エネルギーを最も多く有し、固有信号E1は、モノラル符号化器103を用いて符号化された変換であるダウンミックス信号113として使用されてよい。E1信号を符号化すること113のもう1つの利益は、KLT領域から取り込み後の領域へ変換して戻った際に、同様の量子化誤差が、復号化器250で音場信号117の3つのチャネルすべてに拡散されることである。これによって、潜在的な空間量子化の雑音を曝露する作用が低減する。
例えば、「E1 E2 E3」領域内の音場信号112のサブ帯域を記述するためには、三(3)つのパラメータを使用してKLTを記述する。すなわち、d、φ、θのほか、これに加えて2つの利得調整パラメータb2およびb3が使用される。したがって、パラメータの合計数は、1サブ帯域あたりの五(5)つのパラメータである。音場信号を記述するチャネルがさらに多くある場合、KLT系の符号化は、KLTを記述するための遙かに多数の変換パラメータを必要とする。例えば、KLTを4次元空間で特定するのに必要な変換パラメータの最低数は6である。このほか、3つの調整利得パラメータを用いて、固有信号E1から固有信号E2、E3およびE4を算出する。したがって、パラメータの合計数は、1サブ帯域あたり9である。一般的な場合、Mチャネルを含む音場信号があると、KLT変換パラメータを記述するのにはO(M2)パラメータが求められ、固有信号で実施されるエネルギー調整を記述するのにはO(M)パラメータが求められる。したがって、各サブ帯域に対して(KLTを記述するための)変換パラメータ212のセットの算出には、相当多数のパラメータを符号化する必要がある可能性がある。
a2、b2、a3、b3はパラメータ化のパラメータであり、d(E1(p,k))は、E1(p,k)の無相関バージョンだがE2およびE3に対しては異なっていてよく、d2(E1(p,k))およびd3(E1(p,k))と表してよい。
ここで、Tはベクトル転置を指す。このように、固有信号E2およびE3の予測された成分は、予測パラメータa2およびa3を用いて算出できる。
無相関信号が、モノラルで符号化された残りの信号に入れ替わった場合、それによって生じるシステムは波形符号化を再び達成する。これは、予測利得が高ければ有利となり得る。例えば、残りの信号resE2(p,k)=E2(p,k)-a2(p,k)*E1(p,k))、およびresE3(p,k)=E3(p,k)-a3(p,k)*E1(p,k))を明示的に算出することを検討してよく、これらの信号は、(少なくとも式(17)および(18)によって得られた仮定モデルの観点から)無相関信号の特性を有する。これらの信号resE2(p,k)およびresE3(p,k)の波形符号化を、合成無相関信号を使用する代替案として検討してよい。残りの信号resE2(p,k)およびresE3(p,k)の明示的な符号化を実施するために、モノラルコーデックのその他のインスタンスを使用してよいが、残りの信号を復号化器に送るのに必要なビットレートは比較的高いため、これは不利になるであろう。その一方で、このような手法の利点は、割り当てられたビットレートは大きくなるため、復号化器の再構築が容易になって完璧な再構築に近づく点である。
式(17)および(18)によって得られた信号モデル、および式(21)および(22)によって得られたエネルギー調整利得b2(p,k)およびb3(p,k)を算出するための推定手順では、無相関信号d2(E1(p,k))およびd3(E1(p,k))のエネルギーがダウンミックス信号E1(p,k)のエネルギーと(少なくとも概ね)一致していると仮定することに注意すべきである。使用した無相関器によっては、これは当てはまらないことがある(例えばE1(p,k)の遅延バージョンを用いた場合、E1(p-1,k)およびE1(p-2,k)のエネルギーは、E1(p,k)のエネルギーとは異なることがある)。
上記に述べたように、無相関器d2()およびd3()は、1つのフレーム遅延および2つのフレーム遅延としてそれぞれ実装されてよい。この場合、前述したエネルギーの不一致が通常生じる(とりわけ信号が一過性の場合)。式(17)および(18)によって得られた信号モデルの正確さを確実にするため、かつ、適当な量の無相関信号d2(E1(p,k))およびd3(E1(p,k))を再構築過程で挿入するため、(符号化器1200および/または復号化器250で)さらに他のエネルギー調整を実施する必要がある。
このほか、復号化器250は、復号化されたダウンミックス信号MD(p,k)261に基づいて、例えば1つまたは2つのフレーム遅延(p-1およびp-2と表記)を用いて、無相関信号264を(無相関器部252で)生成するように構成されてよく、これを以下のように記載できる。
E2およびE3の再構築は、更新されたエネルギー調整利得を用いて実施されてよく、これをb2new(p,k)およびb3new(p,k)と表記できる。更新されたエネルギー調整利得b2new(p,k)およびb3new(p,k)は、次式に従って計算できる。
例えば
改善されたエネルギー調整方法を「ダッカー(ダッカー)」調整と呼んでよい。「ダッカー」調整は、次式を用いて更新されたエネルギー調整利得を計算できる。
例えば
これは、以下のように書くこともできる。
例えば
「ダッカー」調整の場合、エネルギー調整利得b2(p,k)およびb3(p,k)は、ダウンミックス信号MD(p,k)の現在フレームのエネルギーがダウンミックス信号MD(p-1,k)および/またはMD(p-2,k)の以前のフレームのエネルギーよりも低い場合のみに更新される。換言すれば、更新されたエネルギー調整利得は、元のエネルギー調整利得以下である。更新されたエネルギー調整利得は、元のエネルギー調整利得に対して増加していない。これは、現在フレームMD(p,k)内でアタック(attack)(すなわち低エネルギーから高エネルギーへの移行)が起きた状況で有益となり得る。このような場合、無相関信号MD(p-1,k)およびMD(p-2,k)は通常雑音を含んでおり、この雑音は、エネルギー調整利得b2(p,k)およびb3(p,k)に1よりも大きい係数を適用することによって際立つ。その結果、前述した「ダッカー」調整を用いると、再構築された音場信号を知覚する質を向上させることができる。
前述したパラメータ符号化の枠組の様々な変形形態を実施してよい。例えば、パラメータ符号化の枠組の別の動作形態は、無相関の完全な畳み込みを追加の遅延なしに可能にするものであり、エネルギー調整利得b2(p,k)およびb3(p,k)をダウンミックス信号E1に適用することによって、まず2つの中間信号をパラメータ領域で生成するというものである。続いて、この2つの中間信号に逆T-F変換を実施して、2つの時間領域信号をもたらすことができる。次に、2つの時間領域信号を無相関化してよい。これらの無相関化された時間領域信号は、再構築された予測信号E2およびE3に適切に加えられてよい。このように、代替の実施では、無相関信号は時間領域に生成される(サブ帯域領域ではない)。
正規相関γに基づいて無相関信号をもたらすというものである。相関パラメータγは、量子化され、符号化され、空間ビットストリーム221に挿入されてよい。
この最後の手法は、相関パラメータγの符号化および/または伝送を必要としないという点で、有益である。その一方で、この最後の手法は、元の固有信号E2およびE3の正規相関γが平均値に維持されることのみを実現する。
本明細書では、音場信号を符号化するための方法およびシステムを説明してきた。特に、ビットレートを低減できると同時に、一定の知覚的品質を維持できるという、音場信号に対するパラメータ符号化の枠組を説明してきた。さらに、パラメータ符号化の枠組は、低ビットレートで高質のダウンミックス信号を提供し、これは、階層化したテレビ会議システムを実施するのに有益である。
上記で考察した実施形態およびその変形例はすべて、そのどのような組み合わせて実施されてもよく、異なる部/実施形態で言及されるが同じまたは同様の機能を有する構成要素は、同じまたは別々の構成要素として実装されてよい。
以下の要素は、入力/出力インターフェース805に接続している:キーボード、マウスなどを含む入力セクション806;陰極線管(CRT)、液晶ディスプレイ(LCD)などのディスプレイ、および拡声器などを含む出力セクション807;ハードディスクなどを含む記憶セクション808;ならびに、LANカード、モデムなどのネットワークインターフェースカードを含む通信セクション809。通信セクション809は、インターネットなどのネットワークを介して通信プロセスを実施する。
上記の実施形態のパケット損失補償装置を説明する過程において、いくつかのプロセスまたは方法も明らかに開示する。以下では、これらの方法の要約を、上記ですでに考察した詳細の一部を繰り返さずに記載するが、同方法は、パケット損失補償装置を説明する過程で開示されているが、同方法は、記載したような構成要素を必ずしも採用する必要はなく、あるいは、必ずしもそのような構成要素によって実行される必要はないことに注意すべきである。例えば、パケット損失補償装置の実施形態は、ハードウェアおよび/またはファームウェアを用いて部分的または完全に実現されてよく、以下で考察するパケット損失補償方法も、コンピュータで実行可能なプログラムによって全面的に実現されてよい可能性があるが、本方法は、パケット損失補償装置のハードウェアおよび/またはファームウェアを採用してもよい。
本明細書に記載した方法およびシステムは、ソフトウェア、ファームウェアおよび/またはハードウェアとして実装されてよい。特定の要素は、例えば、デジタルシグナルプロセッサまたはマイクロプロセッサ上で稼働するソフトウェアとして実装されてよい。その他の要素は、例えば、ハードウェアとして、および/または特定用途向け集積回路として実装されてもよい。記載した方法およびシステムにみられる信号は、ランダムアクセスメモリまたは光学記憶媒体などの媒体に記憶されてよい。信号は、ラジオネットワーク、衛星ネットワーク、無線ネットワークまたは有線ネットワーク、例えばインターネットなどのネットワークを介して伝送されてよい。本明細書に記載した方法およびシステムを利用した典型的な装置は、携帯型電子機器または音声信号を記憶し、かつ/またはレンダリングするのに使用されるその他の民生機器である。
以下に、上記各実施形態から把握できる技術思想を記載する。
(付記1)
音声パケットのストリーム内でパケット損失を補償するためのパケット損失補償装置であって、各音声パケットが、少なくとも1つのモノラル成分および少なくとも1つの空間成分を含む伝送形式で少なくとも1つの音声フレームを含む、前記パケット損失補償装置において、
損失パケットの損失フレームに対して前記少なくとも1つのモノラル成分を作成するための第1の補償部と、
前記損失フレームに対して少なくとも1つの空間成分を作成するための第2の補償部とを備えるパケット損失補償装置。
(付記2)
前記音声フレームは、適応直交変換に基づいて符号化されている、付記1に記載のパケット損失補償装置。
(付記3)
前記音声フレームは、パラメータによる固有分解に基づいて符号化され、
前記少なくとも1つのモノラル成分は、少なくとも1つの固有チャネル成分を含み、
前記少なくとも1つの空間成分は、少なくとも1つの空間パラメータを含む、付記1に記載のパケット損失補償装置。
(付記4)
前記第1の補償部は、減衰係数を用いるか又は用いずに、隣接フレーム内の対応するモノラル成分を複製することによって、前記損失フレームに対して前記少なくとも1つのモノラル成分を作成するように構成される、付記1~3のうちいずれか一項に記載のパケット損失補償装置。
(付記5)
少なくとも2つの連続するフレームが損失しており、
前記第1の補償部は、減衰係数を用いるか又は用いずに、隣接した過去フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの前の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成し、減衰係数を用いるか用いずに、隣接した未来フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの後の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成するように構成される、付記1~4のうちいずれか一項に記載のパケット損失補償装置。
(付記6)
前記第1の補償部は、
前記損失フレームよりも前の少なくとも1つの過去フレームにある前記少なくとも1つのモノラル成分を時間領域信号に変換するための第1の変換器と、
前記時間領域信号に関する前記パケット損失を補償して、パケット損失を補償した時間領域信号にするための時間領域補償部と、
前記パケット損失を補償した時間領域信号を前記少なくとも1つのモノラル成分の形式に変換して、前記損失フレーム内の前記少なくとも1つのモノラル成分に対応する作成後のモノラル成分にするための第1の逆変換器とを含む、付記1に記載のパケット損失補償装置。
(付記7)
少なくとも2つの連続するフレームが損失しており、
前記第1の補償部は、減衰係数を用いるか又は用いずに、隣接した未来フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの後の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成するようにさらに構成される、付記6に記載のパケット損失補償装置。
(付記8)
各音声フレームは、前記音声フレーム内の前記少なくとも1つのモノラル成分、前記音声フレーム内の少なくとも1つの他のモノラル成分に基づいて、予測するために使用される少なくとも1つの予測パラメータをさらに備え、
前記第1の補償部は、
前記損失フレームに対して前記少なくとも1つのモノラル成分を作成するための主補償部と、
前記損失フレームに対して前記少なくとも1つの予測パラメータを作成するための第3の補償部とを含む、付記1~7のうちいずれか一項に記載のパケット損失補償装置。
(付記9)
前記第3の補償部は、減衰係数を用いるか又は用いずに、最後のフレーム内の対応する予測パラメータを複製することによって、あるいは1つまたは複数の隣接フレームの対応する予測パラメータの値を平滑化することによって、あるいは過去フレームおよび未来フレーム内の対応する予測パラメータの値を用いる補間によって、前記損失フレームに対して前記少なくとも1つの予測パラメータを作成するように構成される、付記8に記載のパケット損失補償装置。
(付記10)
作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームに対する前記少なくとも1つの他のモノラル成分を予測するための予測復号化器をさらに備える、付記8に記載のパケット損失補償装置。
(付記11)
前記予測復号化器は、減衰係数を用いるか又は用いずに、作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分およびその無相関バージョンに基づいて、前記損失フレームに対する前記少なくとも1つの他のモノラル成分を予測するように構成される、付記10に記載のパケット損失補償装置。
(付記12)
前記予測復号化器は、前記損失フレームに対する作成された1つのモノラル成分に対応する過去フレーム内の前記モノラル成分を、作成された1つのモノラル成分の前記無相関バージョンとして取り込むように構成される、付記11に記載のパケット損失補償装置。
(付記13)
各音声フレームは、少なくとも2つのモノラル成分を含み、
前記第1の補償部は、
前記損失フレームに対して前記少なくとも2つのモノラル成分のうちの1つを作成するための主補償部と、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算するための予測パラメータ計算器と、
作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームの前記少なくとも2つのモノラル成分の少なくとも1つのもう一方のモノラル成分を予測するための予測復号化器とを含む、付記1~7のうちいずれか一項に記載のパケット損失補償装置。
(付記14)
前記第1の補償部は、
少なくとも1つの予測パラメータが、前記損失フレーム以前の最後のフレームに含まれるか該最後のフレームに対して作成および計算のうちのいずれか一方を実施されている場合、前記最後のフレームに対する前記少なくとも1つの予測パラメータに基づいて、前記損失フレームに対する前記少なくとも1つの予測パラメータを作成するための第3の補償部をさらに備え、
前記予測パラメータ計算器は、予測パラメータが含まれていないか、あるいは前記損失フレーム以前の最後のフレームに対して作成および計算のうちのいずれか一方を実施されていない場合に、前記以前のフレームを用いて前記損失フレームに対する前記少なくとも1つの予測パラメータを計算するように構成され、
前記予測復号化器は、計算または作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームの少なくとも2つのモノラル成分のうちの少なくとも1つのもう一方のモノラル成分を予測するように構成される、付記13に記載のパケット損失補償装置。
(付記15)
前記主補償部は、前記少なくとも1つのもう一方のモノラル成分を作成するようにさらに構成され、
前記第1の補償部は、前記予測復号化器によって予測された前記少なくとも1つのもう一方のモノラル成分を、前記主補償部によって作成された前記少なくとも1つのもう一方のモノラル成分と調整するための調整部をさらに含む、付記13に記載のパケット損失補償装置。
(付記16)
前記調整部は、前記予測復号化器によって予測された前記少なくとも1つのもう一方のモノラル成分と、前記主補償部によって作成された前記少なくとも1つのもう一方のモノラル成分との重み付き平均値を、前記少なくとも1つのもう一方のモノラル成分の最終結果として計算するように構成される、付記15に記載のパケット損失補償装置。
(付記17)
前記第3の補償部は、減衰係数を用いるか又は用いずに、前記最後のフレーム内の対応する予測パラメータを複製することによって、あるいは1つまたは複数の隣接フレームの対応する予測パラメータの値を平滑化することによって、あるいは過去フレームおよび未来フレーム内の対応する予測パラメータの値を用いる補間によって、前記損失フレームに対して前記少なくとも1つの予測パラメータを作成するように構成される、付記14に記載のパケット損失補償装置。
(付記18)
前記予測復号化器は、減衰係数を用いるか又は用いずに、作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分およびその無相関バージョンに基づいて、前記損失フレームの前記少なくとも1つのもう一方のモノラル成分を予測するように構成される、付記13に記載のパケット損失補償装置。
(付記19)
前記予測復号化器は、前記損失フレームに対する作成された1つのモノラル成分に対応する過去フレーム内の前記モノラル成分を、作成された1つのモノラル成分の前記無相関バージョンとして取り込むように構成される、付記18に記載のパケット損失補償装置。
(付記20)
前記予測パラメータ計算器は、前記損失フレームに対して作成された1つのモノラル成分に対応する前記損失フレーム以前の最後のフレーム内の前記モノラル成分と、前記損失フレームに対して予測されることになっている前記モノラル成分に対応する前記最後のフレーム内の前記モノラル成分とに基づいて、前記損失フレームに対する前記少なくとも1つの予測パラメータを計算するように構成される、付記13に記載のパケット損失補償装置。
(付記21)
前記予測パラメータ計算器は、前記損失フレームに対して予測されることになっている前記モノラル成分に対応する前記最後のフレーム内の前記モノラル成分と、その相関成分との予測残差の平均二乗誤差が小さくなるように、前記損失フレームに対する前記少なくとも1つの予測パラメータを計算するように構成される、付記20に記載のパケット損失補償装置。
(付記22)
前記少なくとも1つの予測パラメータは、エネルギー調整利得を含み、
前記予測パラメータ計算器は、予測残差の振幅と、前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内の前記モノラル成分の振幅との比に基づいて前記エネルギー調整利得を計算するように構成される、付記21に記載のパケット損失補償装置。
(付記23)
前記予測パラメータ計算器は、前記予測残差の二乗平均平方根と、前記損失フレームに対して前記作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内の前記モノラル成分の二乗平均平方根との比に基づいて前記エネルギー調整利得を計算するように構成される、付記22に記載のパケット損失補償装置。
(付記24)
前記少なくとも1つの予測パラメータは、エネルギー調整利得を含み、
前記予測パラメータ計算器は、
前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内の前記モノラル成分に基づいて無相関信号を算出し、
前記無相関信号のエネルギーの第2の指標と、前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内の前記モノラル成分のエネルギーの第1の指標とを算出し、
前記第2の指標が前記第1の指標よりも大きい場合に、前記無相関信号に基づいて前記エネルギー調整利得を算出するように構成される、付記20に記載のパケット損失補償装置。
(付記25)
前記第2の補償部は、1つまたは複数の隣接フレームの前記少なくとも1つの空間成分の値を平滑化することによって、前記損失フレームに対して前記少なくとも1つの空間成分を作成するように構成される、付記1に記載のパケット損失補償装置。
(付記26)
前記第2の補償部は、少なくとも1つの隣接した過去フレームおよび少なくとも1つの隣接した未来フレーム内の対応する空間成分の値に基づいて、補間アルゴリズムを介して前記損失フレームに対する前記少なくとも1つの空間成分を作成するように構成される、付記1に記載のパケット損失補償装置。
(付記27)
少なくとも2つの連続するフレームが損失しており、
前記第2の補償部は、少なくとも1つの隣接した過去フレームおよび少なくとも1つの隣接した未来フレーム内の対応する空間成分の値に基づいて、前記損失フレームのすべてに対して前記少なくとも1つの空間成分を作成するように構成される、付記25または26に記載のパケット損失補償装置。
(付記28)
前記第2の補償部は、最後のフレーム内の対応する空間成分を複製することによって、前記損失フレームに対して前記少なくとも1つの空間成分を作成するように構成される、付記1に記載のパケット損失補償装置。
(付記29)
音声パケットのストリーム内でパケット損失を補償するためのパケット損失補償方法であって、各音声パケットが、少なくとも1つのモノラル成分および少なくとも1つの空間成分を含む伝送形式で少なくとも1つの音声フレームを含む、前記パケット損失補償方法において、
損失パケットの損失フレームに対して前記少なくとも1つのモノラル成分を作成すること、
前記損失フレームに対して前記少なくとも1つの空間成分を作成すること、を備えるパケット損失補償方法。
(付記30)
前記音声フレームは、適応直交変換に基づいて符号化されている、付記29に記載のパケット損失補償方法。
(付記31)
前記音声フレームは、パラメータによる固有分解に基づいて符号化され、
前記少なくとも1つのモノラル成分は、少なくとも1つの固有チャネル成分を含み、
前記少なくとも1つの空間成分は、少なくとも1つの空間パラメータを含む、付記29に記載のパケット損失補償方法。
(付記32)
前記少なくとも1つのモノラル成分を作成することは、減衰係数を用いるか又は用いずに、隣接フレーム内の対応するモノラル成分を複製することによって、前記損失フレームに対して前記少なくとも1つのモノラル成分を作成することを含む、付記29~31のうちいずれか一項に記載のパケット損失補償方法。
(付記33)
少なくとも2つの連続するフレームが損失しており、前記少なくとも1つのモノラル成分を作成することは、減衰係数を用いるか又は用いずに、隣接した過去フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの前の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成すること、減衰係数を用いるか用いずに、隣接した未来フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの後の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成することを含む、付記29~32のうちいずれか一項に記載のパケット損失補償方法。
(付記34)
前記少なくとも1つのモノラル成分を作成することは、
前記損失フレームよりも前の少なくとも1つの過去フレームにある前記少なくとも1つのモノラル成分を時間領域信号に変換すること、
前記時間領域信号に関する前記パケット損失を補償して、パケット損失を補償した時間領域信号にすること、
前記パケット損失を補償した時間領域信号を前記少なくとも1つのモノラル成分の形式に変換して、前記損失フレーム内の前記少なくとも1つのモノラル成分に対応する作成後のモノラル成分にすることを含む、付記29に記載のパケット損失補償方法。
(付記35)
少なくとも2つの連続するフレームが損失しており、前記少なくとも1つのモノラル成分を作成することは、減衰係数を用いるか又は用いずに、隣接した未来フレーム内の対応するモノラル成分を複製することによって、少なくとも1つの後の方の損失フレームに対して前記少なくとも1つのモノラル成分を作成することをさらに備える、付記34に記載のパケット損失補償方法。
(付記36)
各音声フレームは、前記音声フレーム内の前記少なくとも1つのモノラル成分、前記音声フレーム内の少なくとも1つの他のモノラル成分に基づいて、予測するために使用される少なくとも1つの予測パラメータをさらに備え、
前記少なくとも1つのモノラル成分を作成することは、
前記損失フレームに対して前記少なくとも1つのモノラル成分を作成すること、
前記損失フレームに対して前記少なくとも1つの予測パラメータを作成することを含む、付記29~35のうちいずれか一項に記載のパケット損失補償方法。
(付記37)
前記少なくとも1つの予測パラメータを作成することは、減衰係数を用いるか又は用いずに、最後のフレーム内の対応する予測パラメータを複製することによって、あるいは1つまたは複数の隣接フレームの対応する予測パラメータの値を平滑化することによって、あるいは過去フレームおよび未来フレーム内の対応する予測パラメータの値を用いる補間によって、前記損失フレームに対して前記少なくとも1つの予測パラメータを作成することを含む、付記36に記載のパケット損失補償方法。
(付記38)
作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームに対する前記少なくとも1つの他のモノラル成分を予測することをさらに含む、付記36に記載のパケット損失補償方法。
(付記39)
予測した動作は、減衰係数を用いるか又は用いずに、作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分およびその無相関バージョンから、前記損失フレームに対する前記少なくとも1つの他のモノラル成分を予測することを含む、付記38に記載のパケット損失補償方法。
(付記40)
予測した動作は、前記損失フレームに対する作成された1つのモノラル成分に対応する過去フレーム内の前記モノラル成分を、作成された1つのモノラル成分の前記無相関バージョンとして取り込む、付記39に記載のパケット損失補償方法。
(付記41)
各音声フレームは、少なくとも2つのモノラル成分を含み、
前記少なくとも1つのモノラル成分を作成することは、前記損失フレームに対して前記少なくとも2つのモノラル成分のうちの1つを作成すること、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算すること、
作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームの前記少なくとも2つのモノラル成分の少なくとも1つのもう一方のモノラル成分を予測することを含む、付記29~35のうちいずれか一項に記載のパケット損失補償方法。
(付記42)
前記少なくとも1つのモノラル成分を作成することは、
少なくとも1つの予測パラメータが、前記損失フレーム以前の最後のフレームに含まれるか該最後のフレームに対して作成および計算のうちのいずれか一方を実施されている場合、前記最後のフレームに対する前記少なくとも1つの予測パラメータに基づいて、前記損失フレームに対する前記少なくとも1つの予測パラメータを作成することをさらに含み、
計算動作は、予測パラメータが含まれていないか、あるいは前記損失フレーム以前の最後のフレームに対して作成および計算のうちのいずれか一方を実施されていない場合に、前記以前のフレームを用いて前記損失フレームに対する前記少なくとも1つの予測パラメータを計算することを含み、
予測動作は、前記計算または作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分に基づいて、前記損失フレームの少なくとも2つのモノラル成分のうちの少なくとも1つのもう一方のモノラル成分を予測することを含む、付記41に記載のパケット損失補償方法。
(付記43)
前記少なくとも1つのもう一方のモノラル成分を作成すること、
予測動作によって予測された前記少なくとも1つのもう一方のモノラル成分を、作成された少なくとも1つのもう一方のモノラル成分と調整することをさらに含む、付記41に記載のパケット損失補償方法。
(付記44)
調整動作は、予測された前記少なくとも1つのもう一方のモノラル成分と、作成された前記少なくとも1つのもう一方のモノラル成分との重み付き平均値を、前記少なくとも1つのもう一方のモノラル成分の最終結果として計算することを含む、付記43に記載のパケット損失補償方法。
(付記45)
前記少なくとも1つの予測パラメータを作成することは、減衰係数を用いるか又は用いずに、前記最後のフレーム内の対応する予測パラメータを複製することによって、あるいは1つまたは複数の隣接フレームの対応する予測パラメータの値を平滑化することによって、あるいは過去フレームおよび未来フレーム内の対応する予測パラメータの値を用いる補間によって、前記損失フレームに対して前記少なくとも1つの予測パラメータを作成することを含む、付記42に記載のパケット損失補償方法。
(付記46)
予測動作は、減衰係数を用いるか又は用いずに、作成された少なくとも1つの予測パラメータを用いて、作成された1つのモノラル成分およびその無相関バージョンに基づいて、前記損失フレームの前記少なくとも1つのもう一方のモノラル成分を予測することを含む、付記41に記載のパケット損失補償方法。
(付記47)
予測動作は、前記損失フレームに対する作成された1つのモノラル成分に対応する過去フレーム内のモノラル成分を、作成された1つのモノラル成分の前記無相関バージョンとして取り込む、付記46に記載のパケット損失補償方法。
(付記48)
計算動作は、前記損失フレームに対して作成された1つのモノラル成分に対応する前記損失フレーム以前の最後のフレーム内のモノラル成分と、前記損失フレームに対して予測されることになっている前記モノラル成分に対応する前記最後のフレーム内のモノラル成分とに基づいて、前記損失フレームに対する前記少なくとも1つの予測パラメータを計算することを含む、付記41に記載のパケット損失補償方法。
(付記49)
計算動作は、前記損失フレームに対して予測されることになっているモノラル成分に対応する前記最後のフレーム内のモノラル成分と、その相関成分との予測残差の平均二乗誤差が小さくなるように、前記損失フレームに対する前記少なくとも1つの予測パラメータを計算することを含む、付記48に記載のパケット損失補償方法。
(付記50)
前記少なくとも1つの予測パラメータは、エネルギー調整利得を含み、
計算動作は、予測残差の振幅と、前記損失フレームに対して作成された1つのモノラル成分に対応する、損前記失フレーム以前の最後のフレーム内のモノラル成分の振幅との比に基づいて前記エネルギー調整利得を計算することを含む、付記49に記載のパケット損失補償方法。
(付記51)
計算動作は、前記予測残差の二乗平均平方根と、前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内のモノラル成分の二乗平均平方根との比に基づいて前記エネルギー調整利得を計算することを含む、付記50に記載のパケット損失補償方法。
(付記52)
前記少なくとも1つの予測パラメータは、エネルギー調整利得を含み、
計算動作は、
前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内の前記モノラル成分に基づいて無相関信号を算出すること、
前記無相関信号のエネルギーの第2の指標と、前記損失フレームに対して作成された1つのモノラル成分に対応する、前記損失フレーム以前の最後のフレーム内のモノラル成分のエネルギーの第1の指標とを算出すること、
前記第2の指標が前記第1の指標よりも大きい場合に、前記無相関信号に基づいて前記エネルギー調整利得を算出することを含む、付記48に記載のパケット損失補償方法。
(付記53)
前記少なくとも1つの空間成分を作成することは、1つまたは複数の隣接フレームの前記少なくとも1つの空間成分の値を平滑化することによって、前記損失フレームに対して前記少なくとも1つの空間成分を作成することを含む、付記29に記載のパケット損失補償方法。
(付記54)
前記少なくとも1つの空間成分を作成することは、少なくとも1つの隣接した過去フレームおよび少なくとも1つの隣接した未来フレーム内の対応する空間成分の値に基づいて、補間アルゴリズムを介して前記損失フレームに対する前記少なくとも1つの空間成分を作成することを含む、付記29に記載のパケット損失補償方法。
(付記55)
少なくとも2つの連続するフレームが損失しており、前記少なくとも1つの空間成分を作成することは、少なくとも1つの隣接した過去フレームおよび少なくとも1つの隣接した未来フレーム内の対応する空間成分の値に基づいて、前記損失フレームのすべてに対して前記少なくとも1つの空間成分を作成することを含む、付記53または54に記載のパケット損失補償方法。
(付記56)
前記少なくとも1つの空間成分を作成することは、最後のフレーム内の対応する空間成分を複製することによって、前記損失フレームに対して前記少なくとも1つの空間成分を作成することを含む、付記29に記載のパケット損失補償方法。
(付記57)
計算動作は、下式に基づいて前記予測パラメータを計算することを含み、
式中、norm()はRMS(根平均二乗)演算を指し、上付き文字Tは転置行列を表し、pはフレーム数であり、kは周波数ビンであり、E1(p-1,k)は前記最後のフレーム内の主要モノラル成分であり、Em(p-1,k)は、前記最後のフレーム内の重要性の低いモノラル成分であり、mは、前記最後のフレーム内の重要性の低いモノラル成分の連続番号であり、
は、前記損失フレームpに対する作成された主要モノラル成分E1(p,k)に基づいて、前記損失フレームpに対して重要性の低いモノラル成分Em(p,k)を予測するための予測パラメータである、付記48に記載のパケット損失補償方法。
(付記58)
前記計算動作は、下式に基づいて前記パラメータ
を調整することを含み、
付記57に記載のパケット損失補償方法。
(付記59)
前記損失フレームに対する前記少なくとも1つのモノラル成分は、第1の補償方法で作成され、前記損失フレームに対する前記少なくとも1つの空間成分は、第2の補償方法で作成され、前記第1の補償方法は前記第2の補償方法とは異なる、付記29~58のうちいずれか一項に記載のパケット損失補償方法。
(付記60)
前記音声パケットに対して逆適応変換を実施して逆変換した音場信号を得ることをさらに含む、付記29~59のうちいずれか一項に記載のパケット損失補償方法。
(付記61)
前記逆適応変換は、逆のKarhunen-Loeve変換(KLT)を含む、付記60に記載のパケット損失補償方法。
(付記62)
前記予測パラメータ計算器は、下式に基づいて前記予測パラメータを計算するように構成され、
式中、norm()はRMS(根平均二乗)演算を指し、上付き文字Tは転置行列を表し、pはフレーム数であり、kは周波数ビンであり、E1(p-1,k)は前記最後のフレーム内の主要モノラル成分であり、Em(p-1,k)は、前記最後のフレーム内の重要性の低いモノラル成分であり、mは、前記最後のフレーム内の重要性の低いモノラル成分の連続番号であり、
は、前記損失フレームpに対する作成された主要モノラル成分E1(p,k)に基づいて、前記損失フレームpに対して重要性の低いモノラル成分Em(p,k)を予測するための予測パラメータである、付記20に記載のパケット損失補償方法。
(付記63)
前記予測パラメータ計算器は、下式に基づいて前記パラメータ
を調整するように構成され、
付記62に記載のパケット損失補償装置。
(付記64)
前記第1の補償部は、第1の補償方法を用いて前記損失フレームに対する前記少なくとも1つのモノラル成分を作成するように構成され、
前記第2の補償部は、第2の補償方法を用いて前記損失フレームに対する前記少なくとも1つの空間成分を作成するように構成され、
前記第1の補償方法は前記第2の補償方法とは異なる、付記1~28、62および63のうちいずれか一項に記載のパケット損失補償装置。
(付記65)
前記音声パケットに逆適応変換を実施して逆変換した音場信号を得るための第2の逆変換器をさらに備える、付記1~28、62~64のうちいずれか一項に記載のパケット損失補償装置。
(付記66)
前記逆適応変換は、逆のKarhunen-Loeve変換(KLT)を含む、付記65に記載のパケット損失装置。
(付記67)
付記1~28および62~66のうちいずれか一項に記載のパケット損失補償装置を備えるサーバと、付記1~28および62~66のうちいずれか一項に記載のパケット損失補償装置とのうちの少なくとも一方を備える通信端末を備える音声処理システム。
(付記68)
入力音声信号に適応変換を実施して前記少なくとも1つのモノラル成分および前記少なくとも1つの空間成分を抽出するための第2の変換器を備える通信端末をさらに備える、付記67に記載の音声処理システム。
(付記69)
前記適応変換は、Karhunen-Loeve変換(KLT)を含む、付記68に記載の音声処理システム。
(付記70)
前記第2の変換器は、
前記入力音声信号の各フレームを前記少なくとも1つのモノラル成分に分解するための適応変換器であって、該モノラル成分は、変換行列を介して前記入力音声信号の前記フレームと関連付けられる、前記適応変換器と、
前記変換行列の各成分の値を平滑化して、現在フレームに対する平滑化した変換行列にする平滑化部と、
前記平滑化した変換行列から前記少なくとも1つの空間成分を導き出すための空間成分抽出器とをさらに備える、付記68に記載の音声処理システム。
(付記71)
コンピュータプログラム命令が記録されているコンピュータ可読媒体であって、
プロセッサによって実行されると、前記コンピュータプログラム命令により前記プロセッサが音声パケットのストリーム内のパケット損失を補償するためのパケット損失補償方法を実行でき、
各音声パケットが、少なくとも1つのモノラル成分および少なくとも1つの空間成分を含む伝送形式で少なくとも1つの音声フレームを含み、
前記パケット損失補償方法が、
損失パケット内の損失フレームに対して前記少なくとも1つのモノラル成分を作成すること、
前記損失フレームに対して前記少なくとも1つの空間成分を作成することを備える、コンピュータ可読媒体。
Claims (9)
- 音声パケットのストリーム内でパケット損失を補償するパケット損失補償装置であって、各音声パケットが、少なくとも2つのモノラル成分および少なくとも1つの空間成分を含む伝送形式で少なくとも1つの音声フレームを含み、
前記パケット損失補償装置は、
損失パケットの損失フレームに対して前記少なくとも2つのモノラル成分を作成する第1の補償部と、
1つまたは複数の隣接フレームのうちの最後のフレーム内の対応する空間成分を複製することにより、または少なくとも1つの隣接の過去フレーム及び少なくとも1つの隣接の未来フレーム内の対応する空間成分の値に基づく補間アルゴリズムにより、前記損失フレームに対して前記少なくとも1つの空間成分を作成する第2の補償部と、を備え、
前記第1の補償部は、
前記損失フレームに対する前記少なくとも2つのモノラル成分のうちの少なくとも1つを作成する主補償部と、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算する予測パラメータ計算器と、
作成された前記少なくとも1つのモノラル成分、および前記少なくとも1つの予測パラメータに基づいて、前記損失フレームの前記少なくとも2つのモノラル成分のうちの残りの各モノラル成分を予測する予測復号化器と、を含む、パケット損失補償装置。 - 前記第1の補償部は、1つまたは複数の隣接フレームの前記少なくとも1つのモノラル成分を複製することにより、前記損失フレームに対して前記少なくとも1つのモノラル成分を作成するように構成されている、請求項1に記載のパケット損失補償装置。
- 前記第1の補償部は、前記予測復号化器によって予測された少なくとも1つの残りのモノラル成分を、前記主補償部によって作成された少なくとも1つの残りのモノラル成分で調整する調整部をさらに含む、請求項1または2に記載のパケット損失補償装置。
- 前記調整部は、前記予測復号化器によって予測された少なくとも1つの残りのモノラル成分と、前記主補償部によって作成された少なくとも1つの残りのモノラル成分との重み付き平均値を算出するように構成されている、請求項3に記載のパケット損失補償装置。
- 音声パケットのストリーム内でパケット損失を補償するためのパケット損失補償方法であって、各音声パケットが、少なくとも2つのモノラル成分および少なくとも1つの空間成分を含む伝送形式で少なくとも1つの音声フレームを含み、
前記パケット損失補償方法は、
損失パケットの損失フレームに対して前記少なくとも2つのモノラル成分を作成することと、
1つまたは複数の隣接フレームのうちの最後のフレーム内の対応する空間成分を複製することにより、または少なくとも1つの隣接の過去フレーム及び少なくとも1つの隣接の未来フレーム内の対応する空間成分の値に基づく補間アルゴリズムにより、前記損失フレームに対して前記少なくとも1つの空間成分を作成することと、を備え、
前記少なくとも2つのモノラル成分を作成することは、
前記損失フレームに対する前記少なくとも2つのモノラル成分のうちの少なくとも1つを作成することと、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算することと、
作成された前記少なくとも1つのモノラル成分、および前記少なくとも1つの予測パラメータに基づいて、前記損失フレームの前記少なくとも2つのモノラル成分のうちの残りの各モノラル成分を予測することと、を含む、パケット損失補償方法。 - 1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、請求項5に記載の方法の動作を実行させる複数のコンピュータプログラム命令を記憶するコンピュータ可読媒体。
- 音声パケットのストリーム内でパケット損失を補償するパケット損失補償装置であって、各音声パケットが、少なくとも2つのモノラル成分および少なくとも1つの空間成分を含む少なくとも1つの音声フレームを表し、
前記パケット損失補償装置は、
損失パケットの損失フレームに対して前記少なくとも2つのモノラル成分を作成する第1の補償部と、
1つまたは複数の隣接フレームのうちの最後のフレーム内の対応する空間成分を複製することにより、または少なくとも1つの隣接の過去フレーム及び少なくとも1つの隣接の未来フレーム内の対応する空間成分の値に基づく補間アルゴリズムにより、前記損失フレームに対して前記少なくとも1つの空間成分を作成する第2の補償部と、を備え、
前記第1の補償部は、
前記損失フレームに対する前記少なくとも2つのモノラル成分のうちの少なくとも1つを作成する主補償部と、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算する予測パラメータ計算器と、
作成された前記少なくとも1つのモノラル成分、および前記少なくとも1つの予測パラメータに基づいて、前記損失フレームの前記少なくとも2つのモノラル成分のうちの残りの各モノラル成分を予測する予測復号化器と、を含む、パケット損失補償装置。 - 音声パケットのストリーム内でパケット損失を補償するパケット損失補償装置であって、各音声パケットが、少なくとも2つのモノラル成分および少なくとも1つの空間成分を含む伝送形式を使用して空間音声の少なくとも1つのフレームを表し、
前記パケット損失補償装置は、
損失パケットの損失フレームに対して前記伝送形式の前記少なくとも2つのモノラル成分を作成する第1の補償部と、
1つまたは複数の隣接フレームのうちの最後のフレーム内の対応する空間成分を複製することにより、または少なくとも1つの隣接の過去フレーム及び少なくとも1つの隣接の未来フレーム内の対応する空間成分の値に基づく補間アルゴリズムにより、前記損失フレームに対して前記伝送形式の前記少なくとも1つの空間成分を作成する第2の補償部と、を備え、
前記第1の補償部は、
前記損失フレームに対する前記伝送形式の前記少なくとも2つのモノラル成分のうちの少なくとも1つを作成する主補償部と、
過去フレームを用いて前記損失フレームに対する少なくとも1つの予測パラメータを計算する予測パラメータ計算器と、
作成された前記少なくとも1つのモノラル成分、および前記少なくとも1つの予測パラメータに基づいて、前記損失フレームの前記伝送形式の前記少なくとも2つのモノラル成分のうちの残りの各モノラル成分を予測する予測復号化器と、を含む、パケット損失補償装置。 - 少なくとも1つの音声フレームの代わりに置換フレームを作成するために、前記第1の補償部によって作成された前記少なくとも2つのモノラル成分を、前記第2の補償部によって作成された前記少なくとも1つの空間成分と組み合わせるコンバイナをさらに備える請求項8に記載のパケット損失補償装置。
Applications Claiming Priority (6)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201310282083.3A CN104282309A (zh) | 2013-07-05 | 2013-07-05 | 丢包掩蔽装置和方法以及音频处理系统 |
| CN201310282083.3 | 2013-07-05 | ||
| US201361856160P | 2013-07-19 | 2013-07-19 | |
| US61/856,160 | 2013-07-19 | ||
| JP2020114206A JP7004773B2 (ja) | 2013-07-05 | 2020-07-01 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2022000218A JP7440547B2 (ja) | 2013-07-05 | 2022-01-04 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022000218A Division JP7440547B2 (ja) | 2013-07-05 | 2022-01-04 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024054347A JP2024054347A (ja) | 2024-04-16 |
| JP7842798B2 true JP7842798B2 (ja) | 2026-04-08 |
Family
ID=52144183
Family Applications (5)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016524337A Pending JP2016528535A (ja) | 2013-07-05 | 2014-07-02 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2018026836A Active JP6728255B2 (ja) | 2013-07-05 | 2018-02-19 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2020114206A Active JP7004773B2 (ja) | 2013-07-05 | 2020-07-01 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2022000218A Active JP7440547B2 (ja) | 2013-07-05 | 2022-01-04 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2024021214A Active JP7842798B2 (ja) | 2013-07-05 | 2024-02-15 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Family Applications Before (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016524337A Pending JP2016528535A (ja) | 2013-07-05 | 2014-07-02 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2018026836A Active JP6728255B2 (ja) | 2013-07-05 | 2018-02-19 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2020114206A Active JP7004773B2 (ja) | 2013-07-05 | 2020-07-01 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
| JP2022000218A Active JP7440547B2 (ja) | 2013-07-05 | 2022-01-04 | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10224040B2 (ja) |
| EP (1) | EP3017447B1 (ja) |
| JP (5) | JP2016528535A (ja) |
| CN (2) | CN104282309A (ja) |
| WO (1) | WO2015003027A1 (ja) |
Families Citing this family (52)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104282309A (zh) * | 2013-07-05 | 2015-01-14 | 杜比实验室特许公司 | 丢包掩蔽装置和方法以及音频处理系统 |
| KR101957905B1 (ko) | 2013-10-31 | 2019-03-13 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 시간 도메인 여기 신호를 기초로 하는 오류 은닉을 사용하여 디코딩된 오디오 정보를 제공하기 위한 오디오 디코더 및 방법 |
| PL3063759T3 (pl) | 2013-10-31 | 2018-06-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dekoder audio i sposób dostarczania zdekodowanej informacji audio z wykorzystaniem ukrywania błędów modyfikując sygnał pobudzenia w dziedzinie czasu |
| US10157620B2 (en) | 2014-03-04 | 2018-12-18 | Interactive Intelligence Group, Inc. | System and method to correct for packet loss in automatic speech recognition systems utilizing linear interpolation |
| GB2521883B (en) * | 2014-05-02 | 2016-03-30 | Imagination Tech Ltd | Media controller |
| US9847087B2 (en) | 2014-05-16 | 2017-12-19 | Qualcomm Incorporated | Higher order ambisonics signal compression |
| EP3176781A4 (en) * | 2014-07-28 | 2017-12-27 | Samsung Electronics Co., Ltd. | Method and apparatus for packet loss concealment, and decoding method and apparatus employing same |
| CN113630391B (zh) | 2015-06-02 | 2023-07-11 | 杜比实验室特许公司 | 具有智能重传和插值的服务中质量监视系统 |
| CN105654957B (zh) * | 2015-12-24 | 2019-05-24 | 武汉大学 | 联合声道间和声道内预测的立体声误码隐藏方法及系统 |
| WO2017153300A1 (en) | 2016-03-07 | 2017-09-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Error concealment unit, audio decoder, and related method and computer program using characteristics of a decoded representation of a properly decoded audio frame |
| CN109313905B (zh) * | 2016-03-07 | 2023-05-23 | 弗劳恩霍夫应用研究促进协会 | 隐藏音频帧丢失的错误隐藏单元、音频解码器及相关方法 |
| EP3469589B1 (en) * | 2016-06-30 | 2024-06-19 | Huawei Technologies Duesseldorf GmbH | Apparatuses and methods for encoding and decoding a multichannel audio signal |
| WO2018001493A1 (en) * | 2016-06-30 | 2018-01-04 | Huawei Technologies Duesseldorf Gmbh | Apparatuses and methods for encoding and decoding a multichannel audio signal |
| CN107731238B (zh) * | 2016-08-10 | 2021-07-16 | 华为技术有限公司 | 多声道信号的编码方法和编码器 |
| CN108011686B (zh) * | 2016-10-31 | 2020-07-14 | 腾讯科技(深圳)有限公司 | 信息编码帧丢失恢复方法和装置 |
| CN108694953A (zh) * | 2017-04-07 | 2018-10-23 | 南京理工大学 | 一种基于Mel子带参数化特征的鸟鸣自动识别方法 |
| CN108922551B (zh) * | 2017-05-16 | 2021-02-05 | 博通集成电路(上海)股份有限公司 | 用于补偿丢失帧的电路及方法 |
| CN107293303A (zh) * | 2017-06-16 | 2017-10-24 | 苏州蜗牛数字科技股份有限公司 | 一种多声道语音丢包补偿方法 |
| CN107222848B (zh) * | 2017-07-10 | 2019-12-17 | 普联技术有限公司 | WiFi帧的编码方法、发送端、存储介质和一种无线接入设备 |
| CN107360166A (zh) * | 2017-07-15 | 2017-11-17 | 深圳市华琥技术有限公司 | 一种音频数据处理方法及其相关设备 |
| US10714098B2 (en) * | 2017-12-21 | 2020-07-14 | Dolby Laboratories Licensing Corporation | Selective forward error correction for spatial audio codecs |
| US11153701B2 (en) | 2018-01-19 | 2021-10-19 | Cypress Semiconductor Corporation | Dual advanced audio distribution profile (A2DP) sink |
| EP3553777B1 (en) * | 2018-04-09 | 2022-07-20 | Dolby Laboratories Licensing Corporation | Low-complexity packet loss concealment for transcoded audio signals |
| EP3818524B1 (en) * | 2018-07-02 | 2023-12-13 | Dolby Laboratories Licensing Corporation | Methods and devices for generating or decoding a bitstream comprising immersive audio signals |
| GB2576769A (en) * | 2018-08-31 | 2020-03-04 | Nokia Technologies Oy | Spatial parameter signalling |
| MX2021007109A (es) | 2018-12-20 | 2021-08-11 | Ericsson Telefon Ab L M | Metodo y aparato para controlar el ocultamiento de perdida de tramas de audio multicanal. |
| CN111402905B (zh) * | 2018-12-28 | 2023-05-26 | 南京中感微电子有限公司 | 音频数据恢复方法、装置及蓝牙设备 |
| CN111383643B (zh) * | 2018-12-28 | 2023-07-04 | 南京中感微电子有限公司 | 一种音频丢包隐藏方法、装置及蓝牙接收机 |
| US10887051B2 (en) * | 2019-01-03 | 2021-01-05 | Qualcomm Incorporated | Real time MIC recovery |
| KR102749955B1 (ko) * | 2019-02-19 | 2025-01-03 | 삼성전자주식회사 | 오디오 데이터 처리 방법 및 이를 위한 전자 장치 |
| CN118571232A (zh) | 2019-02-21 | 2024-08-30 | 瑞典爱立信有限公司 | 相位ecu f0插值分割方法及相关控制器 |
| EP3706119A1 (fr) * | 2019-03-05 | 2020-09-09 | Orange | Codage audio spatialisé avec interpolation et quantification de rotations |
| KR102717379B1 (ko) * | 2019-03-29 | 2024-10-15 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 멀티 채널 오디오 프레임에서 예측적인 코딩에서 에러 복구를 위한 방법 및 장치 |
| KR102654181B1 (ko) * | 2019-03-29 | 2024-04-02 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 예측 코딩에서 저비용 에러 복구를 위한 방법 및 장치 |
| EP3984027B1 (en) * | 2019-06-12 | 2024-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Packet loss concealment for dirac based spatial audio coding |
| FR3101741A1 (fr) * | 2019-10-02 | 2021-04-09 | Orange | Détermination de corrections à appliquer à un signal audio multicanal, codage et décodage associés |
| CN112669858B (zh) * | 2019-10-14 | 2024-11-26 | 上海华为技术有限公司 | 一种数据处理方法及相关装置 |
| US11361774B2 (en) * | 2020-01-17 | 2022-06-14 | Lisnr | Multi-signal detection and combination of audio-based data transmissions |
| US11418876B2 (en) | 2020-01-17 | 2022-08-16 | Lisnr | Directional detection and acknowledgment of audio-based data transmissions |
| US20230343346A1 (en) * | 2020-06-11 | 2023-10-26 | Dolby Laboratories Licensing Corporation | Quantization and entropy coding of parameters for a low latency audio codec |
| AU2021291010A1 (en) * | 2020-06-19 | 2023-01-19 | Rtx A/S | Low latency audio packet loss concealment |
| US12597429B2 (en) * | 2020-07-08 | 2026-04-07 | Dolby International Ab | Packet loss concealment |
| EP4189674B1 (en) | 2020-07-30 | 2025-01-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for encoding an audio scene |
| CN116368563B (zh) * | 2020-10-15 | 2024-07-12 | 杜比国际公司 | 使用深度生成网络的实时数据包丢失隐藏 |
| WO2022133039A1 (en) * | 2020-12-16 | 2022-06-23 | Dolby Laboratories Licensing Corporation | Multisource media delivery systems and methods |
| EP4348838A1 (en) * | 2021-06-02 | 2024-04-10 | Dolby International AB | Wireless transmission and reception of packetized audio data in combination with forward error correction |
| CN113676397B (zh) * | 2021-08-18 | 2023-04-18 | 杭州网易智企科技有限公司 | 空间位置数据处理方法、装置、存储介质及电子设备 |
| CN115038014B (zh) * | 2022-06-02 | 2024-10-29 | 深圳市长丰影像器材有限公司 | 一种音频信号处理方法、装置、电子设备和存储介质 |
| GB2631410A (en) * | 2023-06-29 | 2025-01-08 | Nokia Technologies Oy | Rendering of transported audio data |
| US12380902B2 (en) | 2023-10-18 | 2025-08-05 | Cisco Technology, Inc. | Vector quantizer correction for audio codec system |
| US12308037B2 (en) | 2023-10-18 | 2025-05-20 | Cisco Technology, Inc. | Reduced multidimensional indices compression for audio codec system |
| CN119323975B (zh) * | 2024-11-06 | 2025-09-23 | 深圳市声之源电子有限公司 | 用于音频帧动态重组和音频质量分析的方法 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7440547B2 (ja) | 2013-07-05 | 2024-02-28 | ドルビー インターナショナル アクチボラグ | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Family Cites Families (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7644003B2 (en) | 2001-05-04 | 2010-01-05 | Agere Systems Inc. | Cue-based audio coding/decoding |
| RU2316154C2 (ru) | 2002-04-10 | 2008-01-27 | Конинклейке Филипс Электроникс Н.В. | Кодирование стереофонических сигналов |
| AU2002309146A1 (en) | 2002-06-14 | 2003-12-31 | Nokia Corporation | Enhanced error concealment for spatial audio |
| JP2004120619A (ja) * | 2002-09-27 | 2004-04-15 | Kddi Corp | オーディオ情報復号装置 |
| US7835916B2 (en) | 2003-12-19 | 2010-11-16 | Telefonaktiebolaget Lm Ericsson (Publ) | Channel signal concealment in multi-channel audio systems |
| WO2007052612A1 (ja) | 2005-10-31 | 2007-05-10 | Matsushita Electric Industrial Co., Ltd. | ステレオ符号化装置およびステレオ信号予測方法 |
| FR2898725A1 (fr) * | 2006-03-15 | 2007-09-21 | France Telecom | Dispositif et procede de codage gradue d'un signal audio multi-canal selon une analyse en composante principale |
| US9088855B2 (en) | 2006-05-17 | 2015-07-21 | Creative Technology Ltd | Vector-space methods for primary-ambient decomposition of stereo audio signals |
| US20080033583A1 (en) | 2006-08-03 | 2008-02-07 | Broadcom Corporation | Robust Speech/Music Classification for Audio Signals |
| CN101155140A (zh) * | 2006-10-01 | 2008-04-02 | 华为技术有限公司 | 音频流错误隐藏的方法、装置和系统 |
| KR101292771B1 (ko) * | 2006-11-24 | 2013-08-16 | 삼성전자주식회사 | 오디오 신호의 오류은폐방법 및 장치 |
| ATE473605T1 (de) | 2006-12-07 | 2010-07-15 | Akg Acoustics Gmbh | Vorrichtung zur ausblendung von signalausfällen für eine mehrkanalanordnung |
| CN101325537B (zh) | 2007-06-15 | 2012-04-04 | 华为技术有限公司 | 一种丢帧隐藏的方法和设备 |
| CN100524462C (zh) | 2007-09-15 | 2009-08-05 | 华为技术有限公司 | 对高带信号进行帧错误隐藏的方法及装置 |
| JP5153791B2 (ja) * | 2007-12-28 | 2013-02-27 | パナソニック株式会社 | ステレオ音声復号装置、ステレオ音声符号化装置、および消失フレーム補償方法 |
| WO2010012927A1 (fr) * | 2008-07-30 | 2010-02-04 | France Telecom | Reconstruction de donnees audio multicanal |
| JP2010102042A (ja) | 2008-10-22 | 2010-05-06 | Ntt Docomo Inc | 音声信号出力装置、音声信号出力方法および音声信号出力プログラム |
| US8660851B2 (en) | 2009-05-26 | 2014-02-25 | Panasonic Corporation | Stereo signal decoding device and stereo signal decoding method |
| US8321216B2 (en) | 2010-02-23 | 2012-11-27 | Broadcom Corporation | Time-warping of audio signals for packet loss concealment avoiding audible artifacts |
| JP5670551B2 (ja) | 2010-04-30 | 2015-02-18 | トムソン ライセンシングThomson Licensing | ビデオストリームの品質を評価する方法と装置 |
| ES2526320T3 (es) | 2010-08-24 | 2015-01-09 | Dolby International Ab | Ocultamiento de la recepción mono intermitente de receptores de radio estéreo de FM |
| US9026434B2 (en) | 2011-04-11 | 2015-05-05 | Samsung Electronic Co., Ltd. | Frame erasure concealment for a multi rate speech and audio codec |
| EP2710592B1 (en) | 2011-07-15 | 2017-11-22 | Huawei Technologies Co., Ltd. | Method and apparatus for processing a multi-channel audio signal |
| CN102436819B (zh) * | 2011-10-25 | 2013-02-13 | 杭州微纳科技有限公司 | 无线音频压缩、解压缩方法及音频编码器和音频解码器 |
| CN103714821A (zh) | 2012-09-28 | 2014-04-09 | 杜比实验室特许公司 | 基于位置的混合域数据包丢失隐藏 |
| US9830918B2 (en) | 2013-07-05 | 2017-11-28 | Dolby International Ab | Enhanced soundfield coding using parametric component generation |
-
2013
- 2013-07-05 CN CN201310282083.3A patent/CN104282309A/zh active Pending
-
2014
- 2014-07-02 US US14/899,238 patent/US10224040B2/en active Active
- 2014-07-02 WO PCT/US2014/045181 patent/WO2015003027A1/en not_active Ceased
- 2014-07-02 CN CN201480038437.2A patent/CN105378834B/zh active Active
- 2014-07-02 EP EP14744695.9A patent/EP3017447B1/en active Active
- 2014-07-02 JP JP2016524337A patent/JP2016528535A/ja active Pending
-
2018
- 2018-02-19 JP JP2018026836A patent/JP6728255B2/ja active Active
-
2020
- 2020-07-01 JP JP2020114206A patent/JP7004773B2/ja active Active
-
2022
- 2022-01-04 JP JP2022000218A patent/JP7440547B2/ja active Active
-
2024
- 2024-02-15 JP JP2024021214A patent/JP7842798B2/ja active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7440547B2 (ja) | 2013-07-05 | 2024-02-28 | ドルビー インターナショナル アクチボラグ | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20160148618A1 (en) | 2016-05-26 |
| EP3017447A1 (en) | 2016-05-11 |
| EP3017447B1 (en) | 2017-09-20 |
| JP2016528535A (ja) | 2016-09-15 |
| JP7004773B2 (ja) | 2022-01-21 |
| CN105378834B (zh) | 2019-04-05 |
| JP2024054347A (ja) | 2024-04-16 |
| US10224040B2 (en) | 2019-03-05 |
| CN104282309A (zh) | 2015-01-14 |
| JP2020170191A (ja) | 2020-10-15 |
| JP7440547B2 (ja) | 2024-02-28 |
| CN105378834A (zh) | 2016-03-02 |
| JP2018116283A (ja) | 2018-07-26 |
| JP6728255B2 (ja) | 2020-07-22 |
| JP2022043289A (ja) | 2022-03-15 |
| WO2015003027A1 (en) | 2015-01-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7842798B2 (ja) | パケット損失補償装置およびパケット損失補償方法、ならびに音声処理システム | |
| JP7140817B2 (ja) | ステレオ音声信号をプライマリチャンネルおよびセカンダリチャンネルに時間領域ダウンミックスするために左チャンネルと右チャンネルとの間の長期相関差を使用する方法およびシステム | |
| RU2711513C1 (ru) | Устройство и способ оценивания межканальной разницы во времени | |
| US9830918B2 (en) | Enhanced soundfield coding using parametric component generation | |
| RU2439718C1 (ru) | Способ и устройство для обработки звукового сигнала | |
| JP5302980B2 (ja) | 複数の入力データストリームのミキシングのための装置 | |
| KR102818782B1 (ko) | 방향 컴포넌트 보상을 사용하는 DirAC 기반 공간 오디오 코딩과 관련된 인코딩, 디코딩, 장면 처리 및 기타 절차를 위한 장치, 방법 및 컴퓨터 프로그램 | |
| EP3762923B1 (en) | Audio coding | |
| CN105493182A (zh) | 混合波形编码和参数编码语音增强 | |
| JP6799074B2 (ja) | 入力信号を処理する符号化装置及び符号化信号を処理する復号化装置 | |
| JP7762744B2 (ja) | 予測コーディングにおける低コスト誤り回復のための方法および装置 | |
| Zamani | Signal coding approaches for spatial audio and unreliable networks | |
| HK40117438A (en) | Enhanced soundfield coding using parametric component generation | |
| HK40065655B (en) | Enhanced soundfield coding using parametric component generation | |
| HK40065655A (en) | Enhanced soundfield coding using parametric component generation | |
| HK40065485A (en) | Packet loss concealment for dirac based spatial audio coding | |
| HK40065485B (en) | Packet loss concealment for dirac based spatial audio coding | |
| HK1259052B (en) | Method and system for decoding left and right channels of a stereo sound signal | |
| HK1253570B (en) | Method and system using a long-term correlation difference between left and right channels for time domain down mixing a stereo sound signal into primary and secondary channels |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240314 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240314 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250520 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250820 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20251017 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20251118 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20260127 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20260220 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20260327 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7842798 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |