JP7082056B2 - 予測器モデルを使用する信号符号器、復号器及び方法 - Google Patents

予測器モデルを使用する信号符号器、復号器及び方法 Download PDF

Info

Publication number
JP7082056B2
JP7082056B2 JP2018534975A JP2018534975A JP7082056B2 JP 7082056 B2 JP7082056 B2 JP 7082056B2 JP 2018534975 A JP2018534975 A JP 2018534975A JP 2018534975 A JP2018534975 A JP 2018534975A JP 7082056 B2 JP7082056 B2 JP 7082056B2
Authority
JP
Japan
Prior art keywords
sample
segment
signal
reconstructed
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018534975A
Other languages
English (en)
Other versions
JP2019505840A (ja
Inventor
ファンネス,ヘルト
ダーレ,バルト ファン
Original Assignee
アウロ テクノロジーズ エンフェー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アウロ テクノロジーズ エンフェー. filed Critical アウロ テクノロジーズ エンフェー.
Publication of JP2019505840A publication Critical patent/JP2019505840A/ja
Application granted granted Critical
Publication of JP7082056B2 publication Critical patent/JP7082056B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
    • H03M7/3064Segmenting

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、複数のフレームを含む信号を受信するための入力であって、各フレームは順次サンプルを含む、入力と、被符号化信号を与えるための出力とを備える信号符号器であって、信号符号器は、信号を受信するための入力を備え、フレームの順次サンプルをn個の順次サンプルを含むセグメントにセグメント化するように構成されるセグメント化器と、セグメント化器からのセグメント、及びシード値を受信するための入力、並びに、セグメントごとの予測器モデルパラメーターの組を含む被符号化信号を符号器の出力に与えるための出力を備える近似器とを更に備え、近似器は、第1のシード値を有する第1のシードサンプルから開始して、第1のセグメントを近似し、第1の予測器モデルを用いて第1のセグメントのn個の順次サンプルを近似することによって予測器モデルパラメーターの第1の組を求め、その後、第2のシード値を有する第2のシードサンプルから開始して、第1のセグメントに後続する第2のセグメントを近似し、第2の予測器モデルを用いて第2のセグメントのn個の順次サンプルを近似することによって予測器モデルパラメーターの第2の組を求めるように構成される、信号符号器に関する。
そのような信号符号器は、非特許文献1から既知である。
そのような符号器の短所は、セグメントごとにシード値が取得されなければならないこと、そして、これが、先行するフレームからのサンプルを用いて現在のフレームの最初のサンプルを予測することによって達成されなければならないことである。しかしながら、これは、予測誤差の累積につながる。
この短所を克服するために、その符号器は、第2のシード値が第1のセグメントの最後のサンプルnの近似値に等しいことを特徴とする。自らの変換後の軸系(translated axissystem)において各線形予測モデルが適用され、先行するセグメントの最後のサンプルの最後の予測値によってオフセットが与えられる。一般的に行われるように、先行するセグメントの最後のサンプルの値が使用される場合には、先行するセグメントの最後のサンプルの最後の予測値が先行するセグメントの最後のサンプルの値とはわずかに異なるので、不連続が導入され、すなわち、セグメントが開始するたびに不連続の形で誤差が導入され、望ましくないオフセットにつながり、それが符号化の過程において累積する可能性がある。先行するセグメントの最後のサンプルの値の代わりに、先行するセグメントの最後のサンプルの最後の予測値を使用することは、この予測誤差累積を抑制する。
Yinghua Yangら「An application of the piecewise autoregressive model in losslessaudio coding」Norsig 2006,http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.330.2413&rep=rep1&type=pdf
一実施の形態において、信号符号器は、予測器モデルパラメーターを、予測器モデルパラメータークラスター中心を中心にした予測器モデルパラメーターのクラスターにクラスター化するように構成される予測器モデルパラメータークラスター化器を更に備え、セグメントごとに信号符号器の出力に与えられるべき予測モデルパラメーターは、そのセグメントに対応する、予測モデルパラメーターがクラスター化された予測モデルパラメータークラスター中心である。
予測モデルパラメーターのクラスター化は、予測器モデルパラメーターの限られた組の中で予測器モデルパラメーターを実効的に量子化し、それゆえ、予測器モデルパラメーターの圧縮性が大幅に高められるので、データが削減される。例えば、各予測器モデルパラメーターを送信する代わりに、予測器モデルパラメータークラスター中心へのインデックスしか送信される必要がない。この結果として、送信され、それぞれ記憶されるデータが少なくなる。
信号復号器の一実施の形態は、補正されるべきサンプルごとの予測誤差を求めるように構成される誤差近似器を備え、予測誤差は、サンプルのサンプル値と上記サンプルの近似サンプル値との間の差であり、誤差近似器は、補正されるべきサンプルごとの予測誤差を信号符号器の出力に与える出力を更に備える。
予測器モデルの使用及び予測器モデルパラメーターのクラスター化はいずれも、再構成時に近似サンプル値内に誤差を導入する。この予測誤差が符号器によって導入されるとき、この予測誤差は符号器側において既知であることから、被符号化信号に予測誤差を含むことができるので、復号器は、信号を再構成するときに、予測誤差を補正することができる。予測誤差を送信するために更なる帯域幅を必要とするが、再構成される信号の品質は大幅に改善される。代替的には、精度の低い予測を補正することによって、再構成される信号の品質を保持しながら、精度の低い予測器モデルを使用できるようにするために、予測誤差を利用することができる。
一実施の形態において、信号符号器は、誤差近似器によって求められた予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化するように構成される誤差クラスター化器を備え、補正されるべきサンプルごとに信号符号器の出力に与えられるべき予測誤差は、補正されるべきサンプルごとの予測誤差に対応する誤差クラスター中心である。
予測誤差を、それぞれがクラスター中心を有する予測誤差のクラスターにクラスター化することによって、予測器モデルパラメーターと同様に、予測誤差を圧縮することができる。これは、予測誤差を低い分解能で実効的に量子化し、送信される必要があるデータが少なくなるので、帯域幅が削減される。
更なる実施の形態において、信号符号器は、誤差近似器によって求められた予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化するように構成される誤差クラスター化器を備え、補正されるべきサンプルごとに信号符号器の出力に与えられるべき予測誤差は、補正されるべきサンプルごとの予測誤差に対応する誤差クラスター中心へのインデックスである。
インデックスを使用することによって、データレートを更に低減できるようになり、それゆえ、必要とされる帯域幅を更に削減できるようになる。クラスター中心の組は一度しか送信される必要がなく、その後、復号器が適切な予測誤差を選択するのに、クラスター中心の組内の中心へのインデックスで十分である。
更なる実施の形態において、信号符号器はマルチチャネル信号符号器であり、誤差クラスター化器は、複数のチャネルからの予測誤差を誤差クラスター中心の単一の組にクラスター化するように構成される。
これにより、全てのチャネルに関して予測誤差クラスター中心の共通の組を使用できるようになるので、効率が高められる。驚いたことに、予測誤差クラスター中心の共通の組を使用することは、著しく大きい誤差を導入しないので、依然として信号を十分な品質で再構成できることがわかった。
本発明による信号復号器は、シード値、及び信号のセグメントを表す予測器モデルパラメーターの組を含む被符号化信号を受信するための入力と、被復号信号を与えるための出力とを備え、信号復号器は、復号器入力からシード値及び予測器モデルパラメーターを受信するための入力、並びに、再構成されたサンプルを含む再構成されたセグメントを与えるための再構成器出力を備える再構成器であって、各再構成されたサンプルは再構成されたサンプル値を有し、再構成器は、第1のシード値、及び予測器モデルパラメーターの第1の組を用いて第1のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(1)...recon(n))を計算することによって第1のセグメントを再構成し、その後、第2のシード値、及び予測器モデルパラメーターの第2の組を用いて第2のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(n+1)...recon(n+n))を計算することによって、第1のセグメントに後続する第2のセグメントを再構成するように構成される、再構成器と、再構成器から第1のセグメント及び第2のセグメントを受信するためのシーケンス生成器入力を有するシーケンス生成器であって、シーケンス生成器は、第1の再構成されたセグメントの再構成されたサンプルに第2の再構成されたセグメントの再構成されたサンプルを付加することによって被復号信号を構成し、結果として生成された被復号信号を信号復号器の出力に与えるように構成される、シーケンス生成器とを更に備え、第2のシード値は第1のセグメントの最後の再構成されたサンプル値に等しい。
この信号復号器は、先行するセグメントの最後の再構成されたサンプル値を使用して、受信された予測モデルパラメーターを用いて再構成を開始する。自らの変換後の軸系において各線形予測モデルが適用され、先行するセグメントの最後のサンプルの最後の再構成された値からオフセットが求められる。このようにして、予測器モデルごとのオフセットを受信する必要がないので、帯域幅/記憶要件が節約される。
信号復号器の一実施の形態は、再構成されたサンプルごとに、再構成されたサンプルの再構成されたサンプル値に、対応する予測誤差を加えるように構成される誤差補償器を備える。
再構成されることになる補正されるべきサンプルごとに、予測誤差が受信され、受信された予測モデルパラメーターによって求められた予測モデルを用いて再構成されるときにサンプルの値に加えられる。予測モデルを用いて近似によって導入される誤差が低減されるので、これは再構成された信号の忠実度を高める。
信号復号器の一実施の形態において、加えられる予測誤差は誤差クラスター中心である。
予測誤差を予測誤差のクラスターにクラスター化することによって予測誤差が圧縮されるとき、符号器側においてクラスター中心を有する各クラスターを用いて、再構成されたサンプルを補正することができる。これは予測誤差を低い分解能で実効的に量子化し、送信される必要があるデータが少なくなるので、帯域幅が削減されるが、それでも、再構成された信号の忠実度の良好な改善を提供し、すなわち、再構成された信号が元の信号により厳密に一致する。
信号復号器の一実施の形態において、誤差補償器は、再構成されるサンプルごとに、信号復号器の入力から、誤差クラスター中心の組への対応するインデックスを受信するように構成され、誤差補償器は、受信された対応するインデックスによって示される誤差クラスター中心の組から、再構成されるサンプルの再構成されるサンプル値に加えられるべき誤差クラスター中心を選択するように更に構成される。
インデックスを使用することによって、データレートを更に低減できるようになり、それゆえ、必要とされる帯域幅を更に削減できるようになる。クラスター中心の組は一度しか送信される必要がなく、その後、復号器が適切な予測誤差を選択するのに、クラスター中心の組内の中心へのインデックスで十分である。
信号復号器の一実施の形態において、信号復号器はマルチチャネル信号復号器であり、誤差補償器は、複数のチャネルに対して誤差クラスター中心の1つの組を使用するように構成される。
クラスター中心の単一の組しか受信する必要がないので、送信されるべきデータ量が削減され、狭い帯域幅又は低減されたデータレートを使用できるようになる。
本発明による記録デバイスは、そのデバイスが備える符号器と同じ利点を有する。
本発明による再生デバイスは、そのデバイスが備える復号器と同じ利点を有する。
本発明によるコンピューター可読記憶媒体は、同じ記憶媒体上に、より長い持続時間の信号を記憶することができるか、又はより多くのチャネルを記憶することができるので、利用可能な記憶空間をより効率的に使用する。記憶媒体は、光学、磁気又はソリッドステートに基づくことができる。
区分的予測モデルが、所与のサイズのサンプリングされた実数値の時間依存信号を記述する(整数又は浮動小数点の両方)。そのモデルは、入力信号から1回で効率的に学習することができ、予測誤差と、ビットレート(モデルを記述するために必要とされる予測モデルパラメーターを送信するために必要とされるビット数)との間で調整可能にバランスを取ることができるようになり、例えば、そのモデルは、オーディオ圧縮の場合に適している。信号はセグメントに分割され、セグメントごとに処理されるので、予測誤差は経時的に劣化せず、ローカル予測器モデルクラスの選択によっては、予測モデルパラメーターをエントロピー符号化方法(例えば、ゴロム-ライス又はハフマン)で効率的に符号化することができる。区分的予測モデルは、セグメントごとのローカル予測器モデルパラメーター内の誤差に影響を受けやすい。これらは、可逆符号化(lossless encoding:ロスレス符号化)を必要とする。
区分的予測モデルppmは、{t|t∈[0,N-1]}と
Figure 0007082056000001
との間の写像を規定する。ただし、Nはフレームサイズ、すなわち、サンプリングされる値の数であり、tは時間を表す:
Figure 0007082056000002
そのモデルは、第2のサンプリング値(t=1)から開始して、この範囲[0,N-1]をサイズnのセグメントに細分する。セグメントiごとに、区分的予測モデルは、ローカル予測モデルlpmi
Figure 0007082056000003
を含み、それは、先行するセグメントの最後の値を与えられた場合に、対応するセグメントのためのn個のサンプルを生成するために適用される:
Figure 0007082056000004
この場合、st(t)はtに関するシード時間である。すなわち、
Figure 0007082056000005
である。例えば、n=3の場合に、シード時間は、
Figure 0007082056000006
である。
1つのセグメントに対してそれぞれ適用可能な各ローカル予測モデルは、t∈[1,n]の場合に自らの変換後の軸系において適用され、オフセットは先行するセグメントのための最後の予測値によって与えられる。信号が適度に連続していると仮定すると、各ローカル予測器モデルは先行するセグメントのこの最後の予測ppm(st(t))に基づくことができるので、ローカル予測器モデルごとにオフセットをパラメーター化する必要はない。
二次ローカル予測器モデルはqpm(t)=at+bt2のように見えるが、それをqpm(t)=at+bt(t-1)/2としてパラメーター化することが好ましい。後者は、次の値が、或るΔdとともにインクリメントされる先行値として予測される明確なフィルタ解釈(filterinterpretation)を有する。最初に、このΔdはaに設定されるが、各予測後にΔ自体がbで調整される:
Figure 0007082056000007
これにより、
Figure 0007082056000008

がもたらされ、それはtに関する二次多項式である。
後続の予測モデルのパラメーターを学習するために、再構成を考慮に入れることが重要である。各ローカル予測器モデルは、ローカル時間t∈[1,n]と変換後の信号サンプルsignal(t)-ppm(st(t))との間の写像を近似するようにトレーニングされる。その信号は、予測誤差累積を抑制するために、対応する元の信号値で変換されるのではなく、ppm(st(t))、すなわち、先行するセグメントの予測される最後の値で変換される。
更に詳細に論じるために(図を参照)、フレームの最初のサンプルはシードと呼ばれ、次のn個のサンプル(t∈[1,n])を変換するために使用され、そのn個のサンプルは、第1のローカル予測器モデルlpm0を学習するために使用される。第2の予測器モデルlpm1は次のn個のサンプル(t∈[n+1,2n)]に関してトレーニングされるが、今度はlpm0(n)で変換される。後続の予測器モデルに対してこの手順を継続し、必要に応じて、最後のモデルに対して適切なパディングを適用する。
予測器モデルの一例が多項式関数であり、その場合の予測器モデルパラメーターは多項式関数パラメーターであることに留意されたい。
この説明がデータの送信を指すときはいつでも、これは、予測器モデルパラメーター及びシード値等の記憶データも含むものと理解されたい。送信される/記憶されるべきデータ量が削減されるので、送信及びデータ記憶が本発明から同様に恩恵を受ける。
時には、全てのサンプルが、予測プロセス中に近似によって導入される予測誤差の補正を必要とするが、近似プロセスにおいて行われる選択によっては、例えば、最後のサンプルが無視できるほどの予測誤差しか有しないようにモデルを使用することができるので、幾つかのサンプルしか補正を必要としない。その場合に、その最後のサンプルに関して、予測誤差又は予測誤差クラスター中心へのインデックスが与えられる必要はない。元のサンプルを正確に反映するようにモデルが選択されるとき、セグメントの最初のサンプルに関しても同じことが当てはまる。セグメントの最初のサンプル及び最後のサンプルが、著しい誤差を伴うことなく正確に近似されるように予測モデルが使用されるとき、セグメントの残りのサンプルに関する予測誤差のみが求められ、送信される必要がある。4個のサンプルを有するセグメントの場合、送信される予測誤差の50%削減が達成される。
ここで、本発明は図に基づいて説明されることになる。
信号に適用される区分的予測モデルを示す図である。 符号器を示す図である。 復号器を示す図である。 符号化方法を示す図である。 復号方法を示す図である。
図1は、信号に適用される区分的予測モデルを示す。nは任意の値を有することができるが、図1において、値n=3が使用される。フレームの最初のサンプル1はシードと呼ばれ、次のn個のサンプル(t∈[1,n])を変換するために使用され、これらのn個のサンプルは、第1のローカル予測器モデルlmp0を学習するために使用される。第2の予測器モデルlpm1は次のn個のサンプル(t∈[n+1,2n])に関してトレーニングされるが、今度はシードとしてlpm0(n)を使用する。後続の予測器モデルlpm2に関して、この手順が継続される。最後のモデルに関して、必要に応じて、適切なパディングが適用される。
線形及び二次モデルクラスに関して、トレーニングは、結合された二次予測誤差を最小化することからなり、それは二次コスト関数を用いて回帰モデルを当てはめることに対応する。区分的予測モデルはオーディオ信号の第一近似として使用され、その品質は、予測誤差の補正を加えることによって後に改善することができる。図2において、元のサンプル1と近似サンプル1aとの間の差はないので、最初のサンプル1に関する予測誤差はない。第2及び第3のサンプルに関して、図示されるように、元のサンプル2、3と近似サンプル2a、3aとの間に値の差があるので、予測誤差がある。n=3の場合、セグメントごとに3つの誤差補正Δが必要とされることになる。
先行するセグメントの最後のサンプルの近似値は次のセグメントのためのシードとして使用されるので、セグメント間にオフセットの形の不連続は存在しない。セグメントごとにオフセット補正を送信することによってこのオフセットに対処することはできるが、記憶又は送信する必要があるデータ量を増大させることになるので望ましくないであろう。
ビットレートを更に低減するために、これらの誤差補正Δがベクトル量子化技法を用いて近似される。すなわち、誤差補正Δ(予測誤差)がクラスター化され、クラスター中心のみが送信されることになる。さらに、クラスター中心自体の代わりに、クラスター中心へのインデックスのみを送信することができる。任意選択で、セグメントごとの使用されるべきクラスターのみが保持され、送信される。3次元におけるクラスター化は、オーディオ品質の点では準最適な結果を与えるが、これが、二次モデルトレーニング中に余分な制約が使用される理由である。すなわち、二次モデルは、セグメントの最後のサンプルの最後の値を厳密に近似するように要求される:
Figure 0007082056000009
これは、以下を与える
これが図1に示されており、第1のセグメントseg0の最後の近似サンプル4a及び第2のセグメントseg1の最後の近似サンプル7aがそれぞれ対応する元の最後のサンプル4、7に等しい。
この厳密な近似は、この最後のサンプルに関して予測誤差が送信される必要がないという更なる利点を有し、3つのサンプルのうちの2つしか予測誤差送信を必要としないので、帯域幅要件が緩和される。
以下において、式からシードオフセットは省略されることになる。その際、二次誤差は以下のようになる:
Figure 0007082056000010
error=誤差

そして、その最小値は、bに関する導関数が0になるときに見いだされる:
Figure 0007082056000011
error=誤差
これは、
Figure 0007082056000012
を与える。
最後の式はb係数を差の中の差として表しており、それはその二次解釈(quadraticinterpretation)に対応する。
そのモデルは、予測器モデルに関するシード値及びモデルパラメーターによって完全に記述される。ビットレートを更に制限するために、多項式モデルのパラメーター(多くの場合、多項式モデルの係数とも呼ばれる)は、組
Figure 0007082056000013
から得られる値で近似することができ、スカラーsが近似の量子化精度を管理する。その場合に、スカラーsは、(1フレームにわたって一定であると見なされるので、)異なるモデルパラメーターに対応する異なるk個の値とともに、一度記述される必要がある。再構成が誤差累積により損なわれないのを確実にするために、上記の学習手順において、予測値は、これらの近似された係数skと組み合わせて使用されるべきであることに留意されたい。
図2は符号器を示す。信号符号器20は、フレームを含む信号を受信するための入力20aであって、各フレームは順次サンプルを含む、入力20aと、被符号化信号を与えるための出力20bとを備え、信号符号器20は、信号を受信するための入力23aを備え、フレームの順次サンプルをn個の順次サンプルを含むセグメントにセグメント化するように構成されるセグメント化器23と、セグメント化器23からのセグメント及びシード値を受信するための入力24a、並びに、セグメントごとの予測器モデルパラメーターの組を含む被符号化信号を符号器20の出力20bに与えるための出力24bを備える近似器24とを更に備え、近似器24は、第1のシード値を有する第1のシードサンプルから開始して第1のセグメントを近似し、第1の予測器モデルを用いて第1のセグメントのn個の順次サンプルを近似することによって、予測器モデルパラメーターの第1の組を求めるように構成され、その後に、第2のシード値を有する第2のシードサンプルから開始して、第1のセグメントに後続する第2のセグメントを近似し、第2の予測器モデルを用いて第2のセグメントのn個の順次サンプルを近似することによって予測器モデルパラメーターの第2の組を求めるように構成され、第2のシード値は第1のセグメントの最後のサンプルnの近似値に等しい。
図2において、任意選択の結合器26が示されることに留意されたい。符号器20の出力20bに与えられるべき予測誤差がない場合、近似器24の出力24bは、符号器20の出力20bに直接結合することができ、それゆえ、結合器26は含まれない。
しかしながら、信号の再構成中に復号器が予測誤差を低減できるようにするために、予測誤差が使用されることになる場合には、符号器は、補正されるべきサンプルごとの予測誤差を求めるように構成される誤差近似器25を備え、予測誤差は、第1の誤差近似器入力25aを介してセグメント化器23から受信されるサンプルのサンプル値と、第2の誤差近似器入力25bを介して近似器24から受信される該サンプルの近似サンプル値との間の差であり、誤差近似器は、補正されるべきサンプルごとの予測誤差を信号符号器の出力に、又は結合器26に与えるための出力25cを更に備え、結合器26は、その後、近似(器)24から受信された予測モデルパラメーターを、誤差近似器25から受信された予測誤差と結合する。
信号符号器が、予測誤差を圧縮することによって、送信されるべきデータ量を更に削減するように構成される場合、信号符号器は、誤差近似器25によって求められた予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化するように構成される誤差クラスター化器28を備え、補正されるべきサンプルごとに信号符号器の出力20b又は結合器26に与えられるべき予測誤差は、補正されるべきサンプルごとの予測誤差に対応する誤差クラスター中心である。
誤差クラスター化器28は、任意選択で、誤差近似器によって求められた予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化し、補正されるべきサンプルごとの予測誤差に対応する誤差クラスター中心へのインデックスを、補正されるべきサンプルごとに信号符号器の出力に与えるように構成することができる。
信号符号器がマルチチャネル信号符号器である場合、誤差クラスター化器28を複数の符号器間で共有することができるか(チャネルごとに1つの符号器)、又は単一の符号器が複数のチャネルを並行して符号化することができる。誤差クラスター化器28を共有することによって、単一の誤差クラスター化器しか必要とされないだけでなく、複数のチャネルからの予測誤差を誤差クラスター中心の単一の組にクラスター化することができ、全てのチャネルのための近似サンプルに対応するインデックスが、誤差クラスター中心の単一の組を参照し、それにより、復号器側における複雑さも緩和される。
代替的には、又は並行して、信号符号器は、近似器24から受信された予測器モデルパラメーターを、予測モデルパラメータークラスター中心を中心にした予測器モデルパラメーターのクラスターにクラスター化するように構成される予測器モデルパラメータークラスター化器29を備えることができ、そのセグメントに対応する、予測モデルパラメーターがクラスター化された予測モデルパラメータークラスター中心が、セグメントごとに信号符号器20の出力20b又は結合器26に与えられることになる。その場合、予測モデルパラメーターは出力20b又は結合器26に与えられず、点線の要素のみが近似器24を出力20b又は結合器26に接続する。
図3は復号器を示す図である。信号復号器30は、シード値と、信号のセグメントを表す予測器モデルパラメーターの組とを含む被符号化信号を受信するための入力30aと、被復号信号を与えるための出力30bとを備える。信号復号器30は、復号器入力30aからシード値及び予測器モデルパラメーターを受信するための入力34aと、再構成されたサンプルを含む再構成されたセグメントを与えるための再構成器出力34bとを備える再構成器34であって、各再構成されたサンプルは再構成されたサンプル値を有し、再構成器は、第1のシード値と、予測器モデルパラメーターの第1の組とを用いて第1のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(1)...recon(n))を計算することによって第1のセグメントを再構成し、第2のシード値と、予測器モデルパラメーターの第2の組とを用いて第2のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(n+1)...recon(n+n))を計算することによって、第1のセグメントに後続する第2のセグメントを再構成するように構成される、再構成器と、再構成器34から第1のセグメント及び第2のセグメントを受信するためのシーケンス生成器(sequencer)入力を有するシーケンス生成器36であって、シーケンス生成器36は、第1の再構成されたセグメントの再構成されたサンプルに第2の再構成されたセグメントの再構成されたサンプルを付加することによって被復号信号を構成し、結果として得られた被復号信号を信号復号器30の出力30bに与えるように構成される、シーケンス生成器とを更に備え、第2のシード値は第1のセグメントの最後の再構成されたサンプル値に等しい。
信号忠実度を改善するために、信号復号器は、補正されるべき再構成されたサンプルごとに、再構成されたサンプルの再構成されたサンプル値に、信号復号器30の入力30aから受信された対応する予測誤差を加えるように構成される誤差補償器35を備えることができる。その場合に、誤差補償器35は、第1の入力35aを介して、信号復号器30の入力30aから予測誤差を受信し、第2の入力35bを介して、再構成器34からセグメント内の対応する再構成されたサンプルを受信する。再構成されたサンプルに対応する予測誤差を加算した後に、誤差補償器25(35)は、セグメント内の誤差補償されたサンプルをシーケンス生成器36に与える。図3は、再構成器34からの再構成されたサンプルと、誤差補償器35からの誤差補償されたサンプルとの両方を受信するシーケンス生成器を示すが、誤差補償器は任意選択であることから、これらのサンプルは異なる実施形態であるので、実際には一方のサンプルのみが与えられることに留意されたい。
誤差補償器35から誤差補償されたサンプルが受信される場合には、再構成されたサンプルは、低い信号忠実度を有するので不要である。
任意選択で、加えられるべき予測誤差は誤差クラスター中心である。その場合、誤差補償器は、誤差クラスター中心を保持するメモリ38に結合される。誤差補償器がメモリ38内の誤差クラスター中心を参照するインデックスを受信するとき、誤差補償器は、メモリ内の誤差クラスター中心の組から、そのインデックスに対応するクラスター中心値を引き出し、そのクラスター中心値を、そのインデックスが対応する、補正されるべき再構成されたサンプルに加える。
信号復号器がマルチチャネル信号復号器である場合、誤差補償器35及び任意選択のメモリ38を、それぞれ異なるチャネルを取り扱う複数の符号器の中で共有することができるか、又は単一の復号器が複数のチャネルを並行して取り扱う。これは、複数の誤差補償器の必要性を軽減し、復号器30のコストを削減し、複雑さを緩和する。
図4は符号化方法を示す図である。その符号化方法は、複数のフレームを含む信号を被符号化信号に符号化し、各フレームは順次サンプルを含む。
第1のステップ40において、フレームの順次サンプルが、n個の順次サンプルを含むセグメントにセグメント化される。
次に、第2のステップ41において、第1のセグメントのサンプルが、第1のシード値を有する第1のシードサンプルから開始して、予測モデルを用いて近似される。この近似の結果は、第1の予測器モデルを用いて第1のセグメントのn個の順次サンプルを最適に予測する予測モデルパラメーターを見つけることによって得られた予測器モデルパラメーターの第1の組である。
次に、第3のステップ42において、第2のセグメントのサンプルが予測されるが、この場合、第2のステップ41において得られた第1のセグメントの最後のサンプルの予測値に等しい第2のシード値を有する第2のシードサンプルから開始する。このようにして、第2の予測器モデルを用いて第2のセグメントのn個の順次サンプルを最適に予測することにつながる予測器モデルパラメーターを見つけることによって、予測器モデルパラメーターの第2の組が得られる。
再構成が誤差累積により損なわれないのを確実にするために、上記のステップ42において、予測値は、これらの近似されたモデルパラメーターskと組み合わせて使用されるべきであることに留意されたい。
第4のステップ43において、シード値を含む所定のフォーマットに従って被符号化信号が構成されて、送信されるか、又は記憶されることになる予測モデルパラメーターが、符号器の出力に与えられる。
第3のステップ42と第4のステップ43との間に、予測器モデルパラメーターを、予測モデルパラメータークラスター中心を中心にした予測器モデルパラメーターのクラスターにクラスター化する任意選択のステップを導入することができ、セグメントごとに被符号化信号に含まれるべき予測モデルパラメーターは、そのセグメントに対応する、予測モデルパラメーターがクラスター化された予測モデルパラメータークラスター中心である。第2のステップ41及び第3のステップ42において得られた予測器モデルパラメーターはこの時点で入手可能であるので、それらのパラメーターはクラスター中心を中心にしてクラスター化することができ、これらのクラスター中心を用いて予測誤差を表すことができ、それによりデータ量を圧縮できるようにする。
第3のステップ42と第4のステップ43との間に、補正されるべきサンプルごとの予測誤差を求め、なお、予測誤差はサンプルのサンプル値と該サンプルの予測サンプル値との間の差であり、被符号化信号に含めるために、補正されるべきサンプルごとの予測誤差を与えることである別の任意選択のステップを導入することができる。
プロセスのこの時点において、元のサンプル及び予測/近似サンプルの両方が入手可能であるので、これらの間の差、すなわち、予測誤差を求めて第4のステップ43に与えることができ、第4のステップにおいて、シード値、予測器モデルパラメーター及び予測誤差を含む所定のフォーマットに従って被符号化信号が構成される。
補正されるべきサンプルごとの予測誤差を求める更なるステップは、予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化することによって更に改善するとともに、補正されるべきサンプルごとに、被符号化信号に含めるために、補正されるべきサンプルごとの予測誤差に対応する予測誤差クラスター中心、又はその予測誤差クラスター中心へのインデックスを与えることができる。
図5は復号方法を示す図である。
その復号方法は、シード値と、被符号化信号のセグメントを表す予測器モデルパラメーターの組とを含む被符号化信号を復号する。第1のステップ50において、第1のシード値と、予測器モデルパラメーターの第1の組とを用いて、第1のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(1)...recon(n))を計算することによって、第1のセグメントが再構成される。
第2のステップ51において、第1のステップ50において得られた第1のセグメントの最後の再構成されたサンプル値に等しい第2のシード値と、予測モデルパラメーターの第2の組とを用いて、第2のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(n+1)...recon(n+n))を計算することによって、第1のセグメントに後続する第2のセグメントが再構成される。
第3のステップ52において、第1の再構成されたセグメントの再構成されたサンプルに第2の再構成されたセグメントの再構成されたサンプルを付加することによって、被復号信号が構成される。
その復号方法は、第3のステップ53後に更なるステップを追加することによって更に改善することができ、そのステップでは、再構成されたサンプルごとに、対応する予測誤差が、再構成されたサンプルの再構成されたサンプル値に加えられる。予測誤差は、クラスター化された予測誤差とすることができ、その場合、予測誤差クラスター中心、又はその予測誤差クラスター中心へのインデックスしか必要とされない。
第1のステップ50及び第2のステップ51において、区分的予測モデルを学習するために使用された元の信号を再構成することは、結局、t∈[0,N-1]に関して区分的予測モデルを評価することになる。結果として再構成された信号を生成するこの再構成を実行するために、区分的予測モデル等式
Figure 0007082056000014
を直接使用することができる。
これは、再構成がシード値から開始し、次に各ローカル予測モデルを適用して、再構成の次のn個の値を生成することを示す:
Figure 0007082056000015
各ローカル予測モデルが、先行するセグメントの最後の再構成されたサンプルによって与えられるオフセットに基づくことに留意されたい。
Figure 0007082056000016
の場合に再構成するために、recon(kn)が出発点として使用され、その後、ローカル予測モデルの出力lpmk(i)が加えられる。このようにして、誤差の累積を回避する。
20:符号器
20b:出力
24:近似器
25:誤差近似器
25:誤差補償器
25a:第1の誤差近似器入力
25b:第2の誤差近似器入力
25c:出力25c
26:結合器
28:誤差クラスター化器
29:予測器モデルパラメータークラスター化器
30:信号復号器
30a:被符号化信号を受信するための入力
30b:被復号信号を与えるための出力
34:再構成器
34b:復号器入力30aからシード値及び予測器モデルパラメーターを受信するための入力34b:再構成されたサンプルを含む再構成されたセグメントを与えるための再構成器出力
35:誤差補償器
35a:第1の入力
35b:第2の入力
36:シーケンス生成器
38:メモリ
40:第1のステップ
41:第2のステップ
42:第3のステップ
43:第4のステップ
50:第1のステップ
51:第2のステップ
52:第3のステップ
53:第3のステップ後に更なるステップ

Claims (19)

  1. 複数のフレームを含む信号を受信するための入力であって、
    各フレームは順次サンプルを含む、入力と、
    被符号化信号を与えるための出力と、を備える信号符号器であって、
    該信号符号器は、
    前記信号を受信するための入力を備え、フレームの前記順次サンプルをn個の順次サンプルを含むセグメントにセグメント化するように構成されるセグメント化器と、
    前記セグメント化器からのセグメント、及びシード値を受信するための入力、並びに、セグメントごとの予測器モデルパラメーターの組を含む被符号化信号を前記信号符号器の前記出力に与えるための出力を備える近似器と、を更に備え、
    前記近似器は、第1のシード値を有する第1のシードサンプルから開始して、第1のセグメントのサンプルを予測し、第1の予測器モデルを用いて前記第1のセグメントの前記n個の順次サンプルを近似することによって予測器モデルパラメーターの第1の組を求め、その後、第2のシード値を有する第2のシードサンプルから開始して、前記第1のセグメントに後続する第2のセグメントのサンプルを予測し、第2の予測器モデルを用いて前記第2のセグメントの前記n個の順次サンプルを予測することによって予測器モデルパラメーターの第2の組を求めるように構成され、
    前記第2のシード値は、前記第1のセグメントの最後のサンプルの予測値に等しいことを特徴とする、信号符号器。
  2. 前記信号符号器は、
    予測器モデルパラメーターを、予測器モデルパラメータークラスター中心を中心にした予測器モデルパラメーターのクラスターにクラスター化するように構成される予測器モデルパラメータークラスター化器を更に備え、セグメントごとに前記信号符号器の前記出力に与えられるべき前記予測モデルパラメーターは、そのセグメントに対応する、前記予測モデルパラメーターがクラスター化された前記予測モデルパラメータークラスター中心である、請求項1に記載の信号符号器。
  3. 前記信号符号器は、
    補正されるべきサンプルごとの予測誤差を求めるように構成される予測誤差近似器を備え、前記予測誤差は、サンプルのサンプル値と該サンプルの予測サンプル値との間の差であり、前記予測誤差近似器は、補正されるべきサンプルごとの前記予測誤差を前記信号符号器の前記出力に与えるための出力を更に備える、請求項1に記載の信号符号器。
  4. 前記信号符号器は、
    前記予測誤差近似器によって求められた前記予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化するように構成される誤差クラスター化器を備え、補正されるべきサンプルごとに前記信号符号器の前記出力に与えられるべき前記予測誤差は、補正されるべきサンプルごとの前記予測誤差に対応する誤差クラスター中心である、請求項3に記載の信号符号器。
  5. 前記信号符号器は、
    前記予測誤差近似器によって求められた前記予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化するように構成される誤差クラスター化器を備え、補正されるべきサンプルごとに前記信号符号器の前記出力に与えられるべき前記予測誤差は、補正されるべきサンプルごとの前記予測誤差に対応する予測誤差クラスター中心へのインデックスである、請求項4に記載の信号符号器。
  6. 前記信号符号器はマルチチャネル信号符号器であり、前記誤差クラスター化器は、複数のチャネルからの前記予測誤差を誤差クラスター中心の単一の組にクラスター化するように構成される、請求項4に記載の信号符号器。
  7. シード値、及び信号のセグメントを表す予測器モデルパラメーターの組を含む被符号化信号を受信するための入力と、
    被復号信号を与えるための出力と、
    を備える信号復号器であって、該信号復号器は、
    シード値及び予測器モデルパラメーターを受信するための入力、並びに、再構成されたサンプルを含む再構成されたセグメントを与えるための再構成器出力を備える再構成器であって、各再構成されたサンプルは再構成されたサンプル値を有し、該再構成器は、第1のシード値、及び予測器モデルパラメーターの第1の組を用いて第1のセグメントの各再構成されたサンプルの前記再構成されたサンプル値(recon(1)...recon(n))を計算することによって前記第1のセグメントを再構成し、その後、第2のシード値、及び予測器モデルパラメーターの第2の組を用いて第2のセグメントの各再構成されたサンプルの前記再構成されたサンプル値(recon(n+1)...recon(n+n))を計算することによって、前記第1のセグメントに後続する前記第2のセグメントを再構成するように構成される、再構成器と、
    前記再構成器から前記第1のセグメント及び前記第2のセグメントを受信するためのシーケンス生成器入力を有するシーケンス生成器であって、該シーケンス生成器は、前記第1の再構成されたセグメントの前記再構成されたサンプルに前記第2の再構成されたセグメントの前記再構成されたサンプルを付加することによって前記被復号信号を構成し、結果として得られた前記被復号信号を前記信号復号器の前記出力に与えるように構成される、シーケンス生成器と、
    を更に備え、
    前記第2のシード値は前記第1のセグメントの最後の再構成されたサンプル値に等しいことを特徴とする、信号復号器。
  8. 補正されるべき再構成されたサンプルごとに、前記再構成されたサンプルの前記再構成されたサンプル値に、対応する予測誤差を加えるように構成される予測誤差補償器を備える、請求項7に記載の信号復号器。
  9. 前記加えられる予測誤差は誤差クラスター中心である、請求項8に記載の信号復号器。
  10. 前記予測誤差補償器は、補正されるべき再構成されたサンプルごとに、前記信号復号器の前記入力から、予測誤差クラスター中心の組への対応するインデックスを受信するように構成され、前記予測誤差補償器は、前記受信された対応するインデックスによって示される予測誤差クラスター中心の前記組から、補正されるべき前記再構成されたサンプルの前記再構成されたサンプル値に加えられるべき予測誤差クラスター中心を選択するように更に構成される、請求項8に記載の信号復号器。
  11. 前記信号復号器はマルチチャネル信号復号器であり、前記予測誤差補償器は、複数のチャネルに対して予測誤差クラスター中心の1つの組を使用するように構成される、請求項8に記載の信号復号器。
  12. 請求項1に記載の信号符号器を備える記録デバイス。
  13. 請求項7に記載の信号復号器を備える再生デバイス。
  14. 複数のフレームを含む信号を受信するための入力と、被符号化信号を与えるための出力と、を備える信号符号器により、前記複数のフレームを含む信号を前記被符号化信号に符号化するための方法であって、各フレームは順次サンプルを含み、
    該方法は、
    前記信号符号器が、フレームの前記順次サンプルをn個の順次サンプルを含むセグメントにセグメント化するステップと、
    前記信号符号器が、第1のシード値を有する第1のシードサンプルから開始して、セグメント化器から受信される第1のセグメントのサンプルを予測し、第1の予測器モデルを用いて前記第1のセグメントの前記n個の順次サンプルを予測することによって予測器モデルパラメーターの第1の組を求め、その後、第2のシード値を有する第2のシードサンプルから開始して、前記第1のセグメントに後続する、前記セグメント化器から受信される第2のセグメントのサンプルを予測し、第2の予測器モデルを用いて前記第2のセグメントの前記n個の順次サンプルを予測することによって予測器モデルパラメーターの第2の組を求めるステップと、
    前記信号符号器が、シード値及び予測モデルパラメーターを含む被符号化信号を前記出力に出力するステップと、を含み、
    前記第2のシード値は、前記第1のセグメントの最後のサンプルの予測値に等しいことを特徴とする、符号化のための方法。
  15. 前記符号化のための方法は、
    予測器モデルパラメーターを、予測モデルパラメータークラスター中心を中心にした予測誤差のクラスターにクラスター化するステップを更に含み、セグメントごとに前記被符号化信号に含まれるべき前記予測モデルパラメーターは、そのセグメントに対応する、前記予測モデルパラメーターがクラスター化された予測モデルパラメータークラスター中心である、請求項14に記載の符号化のための方法。
  16. 前記符号化のための方法は、
    補正されるべきサンプルごとの予測誤差を求め、なお、前記予測誤差はサンプルのサンプル値と該サンプルの予測サンプル値との間の差であり、前記被符号化信号に含めるために、補正されるべきサンプルごとの前記予測誤差を与えるステップを更に含む、請求項14に記載の符号化のための方法。
  17. 前記符号化のための方法は、
    前記予測誤差を、誤差クラスター中心を中心にした予測誤差のクラスターにクラスター化し、補正されるべきサンプルごとに、前記被符号化信号に含めるために、補正されるべきサンプルごとに前記予測誤差に対応する予測誤差クラスター中心を与えるステップを更に含む、請求項16に記載の符号化のための方法。
  18. シード値、及び信号のセグメントを表す予測器モデルパラメーターの組を含む被符号化信号を受信するための入力と、被復号信号を与えるための出力と、を備える信号復号器により、前記シード値、及び前記被符号化信号のセグメントを表す前記予測器モデルパラメーターの組を含む、前記被符号化信号を復号するための復号方法であって、該復号方法は、
    前記信号復号器が、第1のシード値、及び予測器モデルパラメーターの第1の組を用いて第1のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(1)...recon(n))を計算することによって前記第1のセグメントを再構成するステップと、第2のシード値、及び予測器モデルパラメーターの第2の組を用いて第2のセグメントの各再構成されたサンプルの再構成されたサンプル値(recon(n+1)...recon(n+n))を計算することによって、前記第1のセグメントに後続する前記第2のセグメントを再構成するステップと、
    前記信号復号器が、前記第1の再構成されたセグメントの前記再構成されたサンプルに前記第2の再構成されたセグメントの前記再構成されたサンプルを付加することによって前記被復号信号を構成するステップと、
    を含み、
    前記第2のシード値は前記第1のセグメントの最後の再構成されたサンプル値に等しいことを特徴とする、方法。
  19. 前記復号方法は、再構成されたサンプルごとに、前記再構成されたサンプルの前記再構成されたサンプル値に、対応する予測誤差を加えるステップを更に含む、請求項18に記載の復号方法。
JP2018534975A 2016-01-03 2016-07-15 予測器モデルを使用する信号符号器、復号器及び方法 Active JP7082056B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15003698 2016-01-03
EP15003698.6 2016-01-03
PCT/EP2016/066981 WO2017118495A1 (en) 2016-01-03 2016-07-15 A signal encoder, decoder and methods using predictor models

Publications (2)

Publication Number Publication Date
JP2019505840A JP2019505840A (ja) 2019-02-28
JP7082056B2 true JP7082056B2 (ja) 2022-06-07

Family

ID=55077324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018534975A Active JP7082056B2 (ja) 2016-01-03 2016-07-15 予測器モデルを使用する信号符号器、復号器及び方法

Country Status (11)

Country Link
US (1) US10530388B2 (ja)
EP (1) EP3398191B1 (ja)
JP (1) JP7082056B2 (ja)
KR (1) KR102595478B1 (ja)
CN (1) CN108701466B (ja)
AU (1) AU2016384679B2 (ja)
BR (1) BR112018013668A2 (ja)
CA (1) CA3045515A1 (ja)
EA (1) EA035903B1 (ja)
IL (1) IL260387A (ja)
WO (1) WO2017118495A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911353B2 (en) 2015-06-17 2021-02-02 Extreme Networks, Inc. Architecture for a network visibility system
US20190385055A1 (en) * 2018-06-14 2019-12-19 Electronics And Telecommunications Research Institute Method and apparatus for artificial neural network learning for data prediction
KR102048661B1 (ko) * 2019-08-21 2019-11-28 브이에스아이 주식회사 공유 버스를 통해 전송되는 데이터 신호에 대한 샘플링의 타이밍 오차를 신속하게 보상하는 방법과 그 방법을 위한 기기

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030151529A1 (en) 2002-01-22 2003-08-14 Marta Karczewicz Adaptive variable length coding of digital video
JP2004004897A (ja) 1991-06-11 2004-01-08 Qualcomm Inc エンコードまたはデコードの方法および装置
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
JP2017510859A (ja) 2014-04-08 2017-04-13 華為技術有限公司Huawei Technologies Co.,Ltd. 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3807342B2 (ja) * 2002-04-25 2006-08-09 三菱電機株式会社 デジタル信号符号化装置、デジタル信号復号装置、デジタル信号算術符号化方法、およびデジタル信号算術復号方法
CA2415105A1 (en) * 2002-12-24 2004-06-24 Voiceage Corporation A method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
US8605588B2 (en) * 2007-05-08 2013-12-10 Cisco Technology, Inc. Packet drop analysis for flows of data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004004897A (ja) 1991-06-11 2004-01-08 Qualcomm Inc エンコードまたはデコードの方法および装置
US20030151529A1 (en) 2002-01-22 2003-08-14 Marta Karczewicz Adaptive variable length coding of digital video
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
JP2017510859A (ja) 2014-04-08 2017-04-13 華為技術有限公司Huawei Technologies Co.,Ltd. 雑音信号処理方法、雑音信号生成方法、符号化器、復号化器、並びに符号化および復号化システム

Also Published As

Publication number Publication date
EP3398191B1 (en) 2021-04-28
CN108701466A (zh) 2018-10-23
KR20180108643A (ko) 2018-10-04
BR112018013668A2 (pt) 2019-01-22
JP2019505840A (ja) 2019-02-28
WO2017118495A1 (en) 2017-07-13
AU2016384679A1 (en) 2018-08-23
AU2016384679B2 (en) 2022-03-10
EP3398191A1 (en) 2018-11-07
US10530388B2 (en) 2020-01-07
US20190028114A1 (en) 2019-01-24
EA201891568A1 (ru) 2019-01-31
KR102595478B1 (ko) 2023-10-27
CA3045515A1 (en) 2017-07-13
CN108701466B (zh) 2023-05-02
EA035903B1 (ru) 2020-08-28
IL260387A (en) 2018-10-31

Similar Documents

Publication Publication Date Title
US8311815B2 (en) Method, apparatus, and program for encoding digital signal, and method, apparatus, and program for decoding digital signal
KR100469002B1 (ko) 오디오 코딩 방법 및 장치
JP5277350B2 (ja) 圧縮符号化および復号の方法、符号器、復号器、ならびに符号化装置
KR20070067170A (ko) 패킷 손실 보상
US8457958B2 (en) Audio transcoder using encoder-generated side information to transcode to target bit-rate
JP7082056B2 (ja) 予測器モデルを使用する信号符号器、復号器及び方法
US8463615B2 (en) Low-delay audio coder
KR102259112B1 (ko) 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
EP1310943B1 (en) Speech coding apparatus, speech decoding apparatus and speech coding/decoding method
US8525706B2 (en) Method and apparatus for encoding and decoding data
EP2023339B1 (en) A low-delay audio coder
KR102353050B1 (ko) 스테레오 신호 인코딩에서의 신호 재구성 방법 및 디바이스
US11545164B2 (en) Audio signal encoding and decoding
WO2015068051A2 (en) Method for encoding and decoding a media signal and apparatus using the same
JP4918103B2 (ja) 符号化方法、復号方法、それらの装置、プログラム及び記録媒体
WO2010067799A1 (ja) 符号化方法、復号方法、それらの装置、プログラム及び記録媒体
US10834402B2 (en) Quantization device, method, and recording medium for parallel processing transform coefficients
JP2012054875A (ja) 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US11575897B2 (en) Image processing apparatus and operation method for learning parameiers based on machine learning
RU2776261C1 (ru) Устройство кодирования аудио, способ кодирования аудио, программа кодирования аудио, устройство декодирования аудио, способ декодирования аудио и программа декодирования аудио
JP2011109390A (ja) 画像符号化装置、画像符号化方法、画像復号装置、及び、画像復号方法
US8086057B2 (en) Dynamic quantizer structures for efficient compression
EP4300373A1 (en) Method and device for training a neural network based decoder
JP2008268792A (ja) オーディオ信号符号化装置およびそのビットレート変換装置
JPH02118700A (ja) 音声符号化復号化方式とその装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210421

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210715

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20210716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220526

R150 Certificate of patent or registration of utility model

Ref document number: 7082056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350