EA035903B1 - Кодер сигнала, декодер и способы их работы с использованием прогностической модели - Google Patents

Кодер сигнала, декодер и способы их работы с использованием прогностической модели Download PDF

Info

Publication number
EA035903B1
EA035903B1 EA201891568A EA201891568A EA035903B1 EA 035903 B1 EA035903 B1 EA 035903B1 EA 201891568 A EA201891568 A EA 201891568A EA 201891568 A EA201891568 A EA 201891568A EA 035903 B1 EA035903 B1 EA 035903B1
Authority
EA
Eurasian Patent Office
Prior art keywords
segment
sample
signal
predictive model
reconstructed
Prior art date
Application number
EA201891568A
Other languages
English (en)
Other versions
EA201891568A1 (ru
Inventor
Герт Фаннес
Берт Ван Дале
Original Assignee
Ауро Текнолоджиз Нв
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ауро Текнолоджиз Нв filed Critical Ауро Текнолоджиз Нв
Publication of EA201891568A1 publication Critical patent/EA201891568A1/ru
Publication of EA035903B1 publication Critical patent/EA035903B1/ru

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3059Digital compression and data reduction techniques where the original information is represented by a subset or similar information, e.g. lossy compression
    • H03M7/3064Segmenting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

Кодер сигнала делит сигнал на сегменты и использует прогностические модели для аппроксимации выборок каждого сегмента. Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной системе координат в сегменте, и смещение задается последним спрогнозированным значением для предыдущего сегмента. Когда сигнал является достаточно непрерывным, снижается необходимость в параметризации смещения для каждой локальной прогностической модели, поскольку каждая локальная прогностическая модель может основываться на этом последнем спрогнозированном выборочном значении предыдущего сегмента. В результате кодер не страдает накоплением ошибки, несмотря на то, что смещение не передается, но вместо этого используется последнее спрогнозированное значение последней выборки предыдущего сегмента. Ошибки прогнозирования получаются для аппроксимированных выборок и передаются на декодер совместно с параметрами прогностической модели и затравочным значением для обеспечения точной реконструкции сигнала декодером.

Description

Настоящее изобретение относится к кодеру сигнала, содержащему вход для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход для предоставления кодированного сигнала, причем кодер сигнала дополнительно содержит сегментатор, содержащий вход для приема сигнала и выполненный с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие n последовательных выборок, аппроксиматор, содержащий вход для приема сегментов от сегментатора и начальных значений и выход для предоставления кодированного сигнала, содержащего для каждого сегмента набор параметров прогностической модели, на выход кодера, причем аппроксиматор выполнен с возможностью аппроксимации первого сегмента, начиная с первой начальной выборки, имеющей первое начальное значение, определения первого набора параметров прогностической модели путем аппроксимации n последовательных выборок первого сегмента с использованием первой прогностической модели, затем аппроксимации второго сегмента, следующего за первым сегментом, начиная со второй начальной выборки, имеющей второе начальное значение, и определения второго набора параметров прогностической модели путем аппроксимации n последовательных выборок второго сегмента с использованием второй прогностической модели.
Такой кодер сигнала известен из An application of the piecewise autoregressive model in lossless audio coding от Yinghua Yang и др., Norsig 2006, http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.330.241 3 &rep=rep 1 &type=pdf.
Недостаток такого кодера состоит в том, что для каждого сегмента нужно получать начальное значение, и это достигается путем прогнозирования самых первых выборок текущего кадра с использованием выборок из предыдущего кадра. Однако это приводит к накоплению ошибки прогнозирования.
Для преодоления этого недостатка кодер отличается тем, что второе начальное значение равно аппроксимированному значению последней выборки n первого сегмента. Каждая линейная прогностическая модель применяется в своей собственной перенесенной системе координат и смещение задается последним спрогнозированным значением последней выборки предыдущего сегмента. Если, как обычно, используется значение последней выборки предыдущего сегмента, вносится нарушение непрерывности, поскольку последнее спрогнозированное значение последней выборки предыдущего сегмента немного отличается от значения последней выборки предыдущего сегмента, т.е. в каждом начале сегмента ошибка вносится в форме нарушения непрерывности, приводящего к нежелательному смещению, которое может накапливаться в ходе кодирования. Использование последнего спрогнозированного значения последней выборки предыдущего сегмента вместо значения последней выборки предыдущего сегмента оставляет эту накопленную ошибку прогнозирования под контролем.
Согласно варианту осуществления кодер сигнала дополнительно содержит кластеризатор параметров прогностической модели, выполненный с возможностью кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие предоставлению на выход кодера сигнала для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
Кластеризация параметров прогностической модели эффективно квантует параметры прогностической модели в ограниченном наборе параметров прогностической модели и, таким образом, сокращает данные, поскольку сжимаемость параметров прогностической модели значительно повышается. Например, вместо передачи каждого параметра прогностической модели нужно передавать только индекс центров кластеризации параметров прогностической модели. Это позволяет передавать и соответственно сохранять меньше данных.
Вариант осуществления кодера сигнала содержит аппроксиматор ошибки, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и аппроксимированным выборочным значением упомянутой выборки, и где аппроксиматор ошибки дополнительно содержит выход для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала.
Использование прогностической модели и кластеризация параметров прогностической модели вносят ошибки в аппроксимированное выборочное значение после реконструкции. Поскольку эта ошибка прогнозирования известна на стороне кодера, когда она вносится кодером, ошибка прогнозирования не может включаться в кодированный сигнал, что позволяет декодеру корректировать ошибку прогнозирования при реконструкции сигнала. Хотя для передачи ошибок прогнозирования требуется дополнительная полоса, качество реконструированного сигнала значительно повышается. Альтернативно ошибки прогнозирования могут использоваться, чтобы можно было использовать менее точную прогностическую модель при поддержании качества реконструированного сигнала путем корректировки менее точных прогнозов.
Согласно варианту осуществления кодер сигнала содержит кластеризатор ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнози- 1 035903 рования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является центром кластеризации ошибки, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Наподобие параметров прогностической модели, ошибки прогнозирования могут сжиматься путем их кластеризации на кластеры ошибок прогнозирования, причем каждый кластер имеет центр кластеризации. Это эффективно квантует ошибки прогнозирования с более низким разрешением, сокращая полосу, поскольку нужно передавать меньше данных.
В дополнительном варианте осуществления кодер сигнала содержит кластеризатор ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является индексом центра кластеризации ошибки, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Использование индекса позволяет дополнительно снижать скорость передачи данных и, таким образом, необходимую ширину полосы. Набор центров кластеризации, который нужно передавать только один раз, после чего индекса центров в наборе центров кластеризации достаточно декодеру для выбора надлежащей ошибки прогнозирования.
В дополнительном варианте осуществления кодер сигнала является многоканальным кодером сигнала и кластеризатор ошибки выполнен с возможностью кластеризации ошибки прогнозирования из множественных каналов в единый набор центров кластеризации ошибки.
Это позволяет использовать общий набор центров кластеризации ошибки прогнозирования для всех каналов, таким образом, повышая эффективность. Неожиданно было обнаружено, что использование общего набора центров кластеризации ошибки прогнозирования не вносит значительно больших ошибок, таким образом, позволяя реконструировать сигнал с достаточным качеством.
Декодер сигнала согласно изобретению содержит вход для приема кодированного сигнала, содержащего начальные значения и наборы параметров прогностической модели, представляющих сегменты сигнала, выход для предоставления декодированного сигнала, причем декодер сигнала дополнительно содержит реконструктор, содержащий вход для приема начальных значений и параметров прогностической модели от входа декодера и выход реконструктора для предоставления реконструированных сегментов, содержащих реконструированные выборки, причем каждая реконструированная выборка имеет реконструированное выборочное значение, причем реконструктор выполнен с возможностью реконструкции первого сегмента путем вычисления реконструированного выборочного значения (recon(1)...recon(n)) каждой реконструированной выборки первого сегмента с использованием первого начального значения и первого набора параметров прогностической модели и реконструкции второго сегмента, следующего за первым сегментом, путем вычисления реконструированного выборочного значения (recon(n+1)...recon(n+n)) каждой реконструированной выборки второго сегмента с использованием второго начального значения и второго набора параметров прогностической модели, секвенсор, имеющий вход секвенсора для приема первого сегмента и второго сегмента от реконструктора, причем секвенсор выполнен с возможностью построения декодированного сигнала путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход декодера сигнала, причем второе начальное значение равно последнему реконструированному выборочному значению первого сегмента.
Этот декодер сигнала использует последнее реконструированное выборочное значение предыдущего сегмента, чтобы начать реконструкцию с использованием принятых параметров прогностической модели. Каждая линейная прогностическая модель применяется в своей собственной перенесенной системе координат и смещение определяется из последнего реконструированного значения последней выборки предыдущего сегмента. Таким образом, не нужно принимать смещение для каждой прогностической модели, таким образом, экономя на полосе и объеме хранилища.
Вариант осуществления декодера сигнала содержит компенсатор ошибки, выполненный с возможностью для каждой реконструированной выборки добавления соответствующей ошибки прогнозирования к реконструированному выборочному значению реконструированной выборки.
Для каждой выборки, подлежащей коррекции, которую нужно реконструировать, ошибка прогнозирования принимается и добавляется к значению выборки, реконструированной с использованием прогностической модели, определенной принятыми параметрами прогностической модели. Это повышает точность реконструированного сигнала, поскольку ошибки, вносимые аппроксимацией с использованием прогностической модели, снижаются.
Согласно варианту осуществления декодера сигнала ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки.
Ошибки прогнозирования, сжимаемые путем их кластеризации на кластеры ошибок прогнозирования, причем каждый кластер имеет центр кластеризации на стороне кодера, могут использоваться для коррекции реконструированных выборок. Это эффективно квантует ошибки прогнозирования с более
- 2 035903 низким разрешением, сокращая полосу, поскольку нужно передавать меньше данных, и одновременно дает хорошее повышение точности реконструированного сигнала, т.е. более точное совпадение реконструированного сигнала с исходным сигналом.
Согласно варианту осуществления декодера сигнала компенсатор ошибки выполнен с возможностью, для каждой реконструированной выборки, приема соответствующего индекса набора центров кластеризации ошибки от входа декодера сигнала, и когда компенсатор ошибки дополнительно выполнен с возможностью выбора центра кластеризации ошибки, подлежащего добавлению к реконструированному выборочному значению реконструированной выборки из набора центров кластеризации ошибки, указанного принятым соответствующим индексом.
Использование индекса позволяет дополнительно снижать скорость передачи данных и, таким образом, необходимую ширину полосы. Набор центров кластеризации, который нужно передавать только один раз, после чего индекса центров в наборе центров кластеризации достаточно декодеру для выбора надлежащей ошибки прогнозирования.
Согласно варианту осуществления декодера сигнала декодер сигнала является многоканальным декодером сигнала, и компенсатор ошибки выполнен с возможностью использования одного набора центров кластеризации ошибки для множественных каналов.
Нужно принимать один-единственный набор центров кластеризации, таким образом, сокращая объем данных, подлежащих передаче, позволяя использовать более узкую полосу или сниженную скорость передачи данных.
Устройство записи согласно изобретению имеет те же преимущества, что и содержащийся в нем кодер.
Устройство воспроизведения согласно изобретению имеет те же преимущества, что и содержащийся в нем декодер.
Компьютерно-считываемый носитель данных согласно изобретению использует доступное пространство хранения более эффективно, поскольку позволяет сохранять более длительный сигнал, или на одном и том же носителе данных может сохраняться больше каналов. Носитель данных может быть оптическим, магнитным или твердотельным.
Кусочная прогностическая модель описывает дискретизированный, действительнозначный, зависящий от времени сигнал заданного размера (целочисленного или с плавающей точкой). Модель можно эффективно обучать из входного сигнала за один проход, и она допускает регулируемый баланс между ошибкой прогнозирования и битовой скоростью (количество битов, необходимых для передачи параметров прогностической модели, необходимых для описания модели), что делает его пригодным, например, для сжатия аудиосигнала. Поскольку сигнал делится на сегменты и обрабатывается сегмент за сегментом, ошибка прогнозирования не ухудшается с течением времени и в зависимости от выбора класса локальной прогностической модели параметры прогностической модели могут эффективно кодироваться методом энтропийного кодирования (например, Голомба-Райса или Хаффмана). Кусочная прогностическая модель чувствительна к ошибкам в параметрах локальной прогностической модели для каждого сегмента; это требует беспотерьного кодирования.
Кусочная прогностическая модель ppm задает отображение между j't|te[0.N-1|} и Z или R, где N размер кадра, количество выборочных значений, и t представляет время:
pmm-.t^Z или R, t е [0Л -1]
Модель делит этот диапазон [0,N-1] на сегменты размера п, начиная со второго выборочного значения (t=1). для каждого сегмента i, кусочная прогностическая модель содержит локальную прогностическую модель lpmi или я t е [1,п] которая применяется для генерации n выборок для соответствующего сегмента, когда последнее значение предыдущего сегмента:
ppm(0) = signal(0) ppm(t) = ppm(st(ty) + t > 0.
Здесь st(t) - начальное время для t: st(t)=[(t-1)/n]n,t>0.
Например, для п=3, начальное время равно
5t(t) =0. te[l,3],n=3 st(t) = 3. t e [4,6] ,n = 3 st(t) - 6, t e [7,9],n = 3
Каждая локальная прогностическая модель, применимая к одному сегменту, применяется в своей собственной перенесенной системе координат для te[1,n], и смещение задано последним спрогнозированным значением для предыдущего сегмента. Исходя из того, что сигнал является достаточно непрерывным, нет необходимости в параметризации смещения для каждой локальной прогностической модели, поскольку каждая локальная прогностическая модель может основываться на этом последнем спрогнозированном ppm(st(t)) предыдущего сегмента.
- 3 035903
Квадратичная локальная прогностическая модель имеет вид qpm(t)=at+bt2, но предпочтительно параметризовать ее как qpm(t)=at+bt(t-1)/2. Последнее имеет чисто фильтровую интерпретацию, где следующее значение прогнозируется как предыдущее значение, увеличенное на некоторую дельту d.
Первоначально эта дельта d задается равной a, но сама дельта регулируется с b после каждого прогноза:
qpm(0~) : = ppm(st), d: = а <jpm(l) = qpm(l - 1) + d, d = d + b qpm(2) = qpm(2 - 1) + d, d = d + b qpm(i) = qpm(i - 1) + d, d = d + b
Это дает d(t) = a + tb qpm(t) = qpm(t -1) + d(t - 1) t -1 = qpm(0) + d(i) i = o t-i = ppm(st) + (a + ib) i = 0 t-1 = seed + af + h Y t i = 0 = seed + at + bt(t - 1)/2 который является полиномом второго порядка относительно t.
Для обучения параметров следующих прогностических моделей важно учитывать реконструкцию. Каждая локальная прогностическая модель обучается для аппроксимации отображения между локальным временем te [1,n] и перенесенными выборками сигнала signal(t)-ppm(st(t)). Сигнал переносится на ppm(st(t)), спрогнозированное последнее значение предыдущего сегмента, но не на соответствующее исходное значение сигнала, чтобы накопленная ошибка прогнозирования оставалась под контролем.
В частности (см. фигуру), первая выборка кадра называется затравкой (начальная выборка) и используется для переноса следующих n выборок (te[1,n]), которые используются для обучения первой локальной прогностической модели lpm0. Вторая прогностическая модель lpm1 обучается на следующих n выборках (te|n+1.2n|). но на этот раз переносится на lpm0(n). Эта процедура продолжается для следующих прогностических моделей, и при необходимости применяется надлежащее заполнение для последней модели.
Заметим, что пример прогностической модели является полиномиальной функцией, и в этом случае параметры прогностической модели являются параметрами полиномиальной функции.
Всякий раз, когда это описание относится к передаче данных, следует понимать, что оно также включают в себя хранение таких данных как параметры прогностической модели и начальные значения. Передача и хранение данных в равной степени пользуется настоящим изобретением, поскольку объем данных, подлежащих передаче/хранению, снижается.
Иногда все выборки нуждаются в коррекции ошибок прогнозирования, вносимых аппроксимацией в процессе прогнозирования, но в зависимости от выборов, сделанных в процессе аппроксимации, лишь некоторые выборки нуждаются в коррекции, поскольку модель может использоваться таким образом, что, например, последняя выборка имеет пренебрежимо малую ошибку прогнозирования. Таким образом, ни ошибку прогнозирования, ни индекс центра кластеризации ошибки прогнозирования не нужно предоставлять для этой последней выборки. То же самое справедливо для первой выборки сегмента при выборе модели, точно отражающей исходную выборку. Когда прогностическая модель используется таким образом, что первая и последняя выборки сегмента точно аппроксимируются без значительных ошибок, необходимо определять и передавать только ошибки прогнозирования для оставшихся выборок сегмента. Для сегмента, имеющего 4 выборки, достигается 50%-ное снижение ошибок прогнозирования, подлежащих передаче.
Изобретение будет описано ниже со ссылкой на фигуры.
На фиг. 1 показана кусочная прогностическая модель, применяемая к сигналу.
На фиг. 2 показан кодер.
На фиг. 3 показан декодер.
На фиг. 4 показан способ кодирования.
На фиг. 5 показан способ декодирования.
На фиг. 1 показана кусочная прогностическая модель, применяемая к сигналу.
Хотя n может иметь любое значение, на фиг. 1 используется значение n=3.
Первая выборка 1 кадра называется затравкой (начальной выборкой) и используется для переноса
- 4 035903 следующих n выборок (te [1,n]), которые используются для обучения первой локальной прогностической модели lpm0. Вторая прогностическая модель lpm1 обучается на следующих n выборках (te[n+1,2n|), но на этот раз с использованием lpm0(n) в качестве затравки. Эта процедура продолжается для следующих прогностических моделей lpm2. Для последней модели при необходимости применяется надлежащее заполнение.
Для линейного и квадратичного классов модели обучение состоит в минимизации объединенной квадратичной ошибки прогнозирования, которая соответствует аппроксимации регрессионной модели квадратичной функцией стоимости. Кусочная прогностическая модель используется как первое приближение аудиосигнала, и его качество можно затем повысить путем добавления коррекции ошибки прогнозирования. На фиг. 2 не существует ошибки прогнозирования для первой выборки 1, поскольку не существует различия между исходной выборкой 1 и аппроксимированной выборкой 1а. Для второй и третьей выборок существует ошибка прогнозирования, как показано, поскольку существует различие в значении между исходной выборкой 2,3 и аппроксимированными выборками 2а, 3а. Для n=3, потребуется 3 дельты коррекции ошибки на сегмент.
Поскольку аппроксимированное значение последней выборки предыдущего сегмента используется как затравка для следующего сегмента, не будет нарушения непрерывности между сегментами в форме смещения. Можно бороться с этим смещением путем отправки коррекции смещения для каждого сегмента, но это было бы нежелательно, поскольку будет увеличивать необходимый объем сохраняемых или передаваемых данных.
Для дополнительного снижения битовой скорости эти дельты коррекции ошибки аппроксимируются методом векторного квантования: дельты коррекции ошибки (ошибки прогнозирования) кластеризуются, и передаче подлежат только центры кластеризации.
Кроме того, можно отправлять только индекс центра кластеризации вместо самого центра кластеризации. В необязательном порядке только кластер, подлежащий использованию на сегмент, удерживается и передается. Кластеризация в 3 измерениях дает близкие к оптимальным результаты для любого качества аудиосигнала, благодаря чему дополнительное ограничение используется в ходе обучения квадратичной модели: квадратичная модель требуется для аппроксимации последнего значения последней выборки сегмента, а именно:
53 : = signal (3) - seed = qpm(3) = За + Зй что дает а = 53/3 - b
На фиг. 1 показано, что последняя аппроксимированная выборка 4а первого сегмента seg0 и последняя аппроксимированная выборка 7а второго сегмента segl равны их соответственно соответствующим исходным последним выборкам 4, 7.
Эта точная аппроксимация имеет дополнительное преимущество в том, что не требуется передавать ошибку прогнозирования для этой последней выборки, что снижает требования к полосе только 2 из 3 выборок, необходимых для передачи ошибки прогнозирования.
Ниже смещение seed будет исключено из формул. Тогда квадратичная ошибка приобретает вид: error = (qpm(l)-51)2 + (qpm(2) - 52)2 + (qpm(3)-S3)2 = (ct - 5Д2 + (2a + b - 52)2 + (0)2 = (S3/3 -b- 5j)2 + (253/3 - 2b + b - 52)2 + (0)2 = (b + Si - 53/3)2 + (b + S2 - 2S3/3)2 и его минимум находится, когда производная по b оказывается равной 0:
derror о =2(/) + 54-53/3) + 2(/7 + 52-253/3) = b + 53 - S3/3 + b + 52 - 253/3 = 2b + 5j + 52 ~ 53
Это дает a = S3/3 - b и b =(-53-53 + 53)/2 или signal (3) - signal (2) signal (1)- seed Ь = 2 - 2
В последней формуле коэффициент b обозначает разность разностей, которая соответствует ее квадратичной интерпретации.
Модель полностью описана начальным значением и параметрами модели для прогностических моделей. Для дополнительного ограничения битовой скорости параметры полиномиальных моделей (также часто именуемые коэффициентами полиномиальной модели) можно аппроксимировать значениями из
- 5 035903 множества j'x|x=sk,keX}, где масштабный коэффициент sрегулирует точность квантования аппроксимации. Таким образом, масштабный коэффициент s нужно описывать один раз (поскольку он принят постоянным на протяжении кадра) совместно с разными значениями k, соответствующими разным параметрам модели. Заметим, что спрогнозированное значение подлежит использованию совместно с этими аппроксимированными коэффициентами sk в вышеописанной процедуре обучения, чтобы можно было гарантировать, что реконструкция не страдает накопленной ошибкой.
На фиг. 2 показан кодер.
Кодер 20 сигнала содержит вход 20а для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход 20b для предоставления кодированного сигнала, причем кодер 20 сигнала дополнительно содержит сегментатор 23, содержащий вход 23а для приема сигнала, и выполнен с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие n последовательных выборок, и аппроксиматор 24, содержащий вход 24а для приема сегментов от сегментатора 23 и начальных значений и выход 24b для предоставления кодированного сигнала, содержащего для каждого сегмента набор параметров прогностической модели, на выход 20b кодера 20, причем аппроксиматор 24 выполнен с возможностью аппроксимации первого сегмента начиная с первой начальной выборки, имеющей первое начальное значение, определения первого набора параметров прогностической модели путем аппроксимации n последовательных выборок первого сегмента с использованием первой прогностической модели, затем аппроксимации второго сегмента, следующего за первым сегментом, начиная со второй начальной выборки, имеющей второе начальное значение, и определения второго набора параметров прогностической модели путем аппроксимации n последовательных выборок второго сегмента с использованием второй прогностической модели, причем второе начальное значение равно аппроксимированному значению последней выборки n первого сегмента.
Следует отметить, что на фиг. 2 показан необязательный объединитель 26. В случае когда ошибки прогнозирования не подлежат предоставлению на выход 20b кодера 20, выход 24b аппроксиматора 24 может быть непосредственно подключен к выходу 20b кодера 20, таким образом, без участия объединителя 26.
Если же ошибки прогнозирования подлежат использованию, чтобы декодер снижал ошибки прогнозирования в ходе реконструкции сигнала, кодер содержит аппроксиматор 25 ошибки, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки, принятым от сегментатора 23 через первый вход 25а аппроксиматора ошибки, и аппроксимированным выборочным значением упомянутой выборки, принятым от аппроксиматора 24 через второй вход 25b аппроксиматор ошибки, и где аппроксиматор ошибки дополнительно содержит выход 25с для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала или на объединитель 26, который затем объединяет параметры прогностической модели, принятые от аппроксиматора 24, с ошибкой прогнозирования, принятой от аппроксиматора 25 ошибки.
В случае когда кодер сигнала выполнен с возможностью дополнительного снижения объема данных, подлежащих передаче, путем сжатия ошибок прогнозирования, кодер сигнала содержит кластеризатор 28 ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором 25 ошибки на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход 20b кодера сигнала или объединитель 26 для каждой выборки, подлежащей коррекции, является центром кластеризации ошибки, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
Кластеризатор 28 ошибки может быть в необязательном порядке выполнен с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставления индекса центра кластеризации ошибки, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала для каждой выборки, подлежащей коррекции.
В случае когда кодер сигнала является многоканальным кодером сигнала, кластеризатор 28 ошибки может совместно использоваться между множественными кодерами (кодерами для каждого канала) или единый кодер может параллельно кодировать множественные каналы. Благодаря совместному использованию кластеризатора 28 ошибки не только требуется один-единственный кластеризатор ошибки, но и ошибки прогнозирования из множественных каналов можно кластеризовать в единый набор центров кластеризации ошибки, и индексы, соответствующие аппроксимированным выборкам для всех каналов, относятся к единому набору центров кластеризации ошибки, таким образом, также снижая сложность на стороне декодера.
Альтернативно или параллельно кодер сигнала может содержать кластеризатор 29 параметров прогностической модели, выполненный с возможностью кластеризации параметров прогностической модели, принятых от аппроксиматора 24, на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, и центры кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующие этим сегментам, подлежат предоставлению на выход 20b или объединитель 26 кодера 20 сигнала для каждого
- 6 035903 сегмента. В этом случае параметры прогностической модели не предоставляются на выход 20b или объединитель 26 и только пунктирные элементы соединяют аппроксиматор 24 с выходом 20b или объединителем 26.
На фиг. 3 показан декодер.
Декодер 30 сигнала содержит вход 30а для приема кодированного сигнала, содержащего начальные значения и наборы параметров прогностической модели, представляющих сегменты сигнала, и выход 30b для предоставления декодированного сигнала. Декодер 30 сигнала дополнительно содержит реконструктор 34, содержащий вход 34а для приема начальных значений и параметров прогностической модели от входа декодера 30а, и выход реконструктора 34b для предоставления реконструированных сегментов, содержащих реконструированные выборки, причем каждая реконструированная выборка имеет реконструированное выборочное значение, причем реконструктор выполнен с возможностью реконструкции первого сегмента путем вычисления реконструированного выборочного значения (recon(1)...recon(n)) каждой реконструированной выборки первого сегмента с использованием первого начального значения и первого набора параметров прогностической модели и реконструкции второго сегмента, следующего за первым сегментом, путем вычисления реконструированного выборочного значения (recon(n+1)...recon(n+n)) каждой реконструированной выборки второго сегмента с использованием второго начального значения и второго набора параметров прогностической модели, и секвенсор 36, имеющий вход секвенсора для приема первого сегмента и второго сегмента от реконструктора 34, причем секвенсор 36 выполнен с возможностью построения декодированного сигнала путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход 30b декодера 30 сигнала, причем второе начальное значение равно последнему реконструированному выборочному значению первого сегмента.
Для повышения точности сигнала декодер сигнала может содержать компенсатор 35 ошибки, выполненный с возможностью для каждой реконструированной выборки, подлежащей коррекции, добавления соответствующей ошибки прогнозирования, принятой от входа 30а декодера 30 сигнала, к реконструированному выборочному значению реконструированной выборки. Для этого компенсатор 35 ошибки принимает ошибку прогнозирования через первый вход 35а от входа 30а декодера 30 сигнала, и через второй вход 35b соответствующие реконструированные выборки в сегментах от реконструктора 34. После добавления соответствующих ошибок прогнозирования к реконструированным выборкам компенсатор 25 ошибки предоставляет выборки с компенсацией ошибки в сегментах на секвенсор 36. Следует отметить, что на фиг. 3 показан секвенсор, принимающий реконструированные выборки от реконструктора 34 и выборки с компенсацией ошибки от компенсатора 35 ошибки, но фактически предоставляется только один из них, поскольку они являются разными вариантами осуществления, поскольку компенсатор ошибки является необязательным.
Если выборки с компенсацией ошибки принимаются от компенсатора 35 ошибки, реконструированные выборки не нужны, поскольку они имеют более низкую точность сигнала.
В необязательном порядке ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки. Для этого компенсатор ошибки подключен к памяти 38, где хранятся центры кластеризации ошибки. Когда компенсатор ошибки принимает индекс, указывающий центр кластеризации ошибки в памяти 38, он извлекает значение центра кластеризации, соответствующее этому индексу, из набора центров кластеризации ошибки в памяти и добавляет его к реконструированной выборке, подлежащей коррекции, которой соответствует индекс.
В случае когда декодер сигнала является многоканальным декодером сигнала, компенсатор 35 ошибки и необязательная память 38 могут совместно использоваться множественными кодерами, каждый из которых обрабатывает отдельный канал, или единый декодер параллельно обрабатывает множественные каналы. Это снижает необходимость в множественных компенсаторах ошибки, снижая стоимость и сложность декодера 30.
На фиг. 4 показан способ кодирования.
Способ кодирования кодирует сигнал, содержащий кадры, причем каждый кадр содержит последовательные выборки в кодированный сигнал.
На первом этапе 40 последовательные выборки кадра сегментируются на сегменты, содержащие n последовательных выборок.
Затем на втором этапе 41 выборки первого сегмента аппроксимируются с использованием прогностической модели, начиная с первой начальной выборки, имеющей первое начальное значение. Результатом этой аппроксимации является первый набор параметров прогностической модели, полученный нахождением параметров прогностической модели, которые наилучшим образом прогнозируют n последовательных выборок первого сегмента с использованием первой прогностической модели.
Затем на третьем этапе 42 прогнозируются выборки второго сегмента, но в этом случае начиная со второй начальной выборки, имеющей второе начальное значение, равное спрогнозированному значению последней выборки первого сегмента, полученному на втором этапе 41. Таким образом, второй набор параметров прогностической модели получается нахождением тех параметров прогностической модели,
- 7 035903 которые приводят к наилучшему прогнозированию n последовательных выборок второго сегмента с использованием второй прогностической модели.
Заметим, что спрогнозированное значение подлежит использованию совместно с этими аппроксимированными параметрами модели sk на вышеупомянутом этапе 42, чтобы можно было гарантировать, что реконструкция не страдает накопленной ошибкой.
На четвертом этапе 43 кодированный сигнал строится согласно заранее заданному формату, содержащему начальные значения, и параметры прогностической модели предоставляются на выход кодера для передачи или сохранения.
Между третьим этапом 42 и четвертым этапом 43 может быть включен необязательный этап кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие включению в кодированный сигнал для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту. Поскольку параметры прогностической модели, полученные на втором этапе 41 и третьем этапе 42, доступны в этот момент, их можно кластеризовать вокруг центров кластеризации, и эти центры кластеризации можно использовать для представления ошибок прогнозирования, что позволяет сокращать объем данных.
Между третьим этапом 42 и четвертым этапом 43 может быть включен еще один необязательный этап определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки, и предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
Поскольку в этот момент в процессе доступны исходные выборки и спрогнозированные/аппроксимированные выборки, разность между ними, ошибка прогнозирования, может определяться и предоставляться четвертому этапу 43, на котором кодированный сигнал строится согласно заранее заданному формату, содержащему начальные значения, параметры прогностической модели и ошибки прогнозирования.
Дополнительный этап определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, можно дополнительно улучшать путем кластеризации ошибок прогнозирования на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставлять для каждой выборки, подлежащей коррекции, центр кластеризации ошибки прогнозирования или индекс этого центра кластеризации ошибки прогнозирования, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
На фиг. 5 показан способ декодирования.
Способ декодирования декодирует кодированный сигнал, содержащий начальные значения и наборы параметров прогностической модели, представляющих сегменты кодированного сигнала.
На первом этапе 50 первый сегмент реконструируется путем вычисления реконструированного выборочного значения (recon(1)...recon(n)) каждой реконструированной выборки этого первого сегмента с использованием первого начального значения и первого набора параметров прогностической модели.
На втором этапе 51 реконструируется второй сегмент, следующий за первым сегментом, путем вычисления реконструированного выборочного значения (recon(n+1)...recon(n+n)) каждой реконструированной выборки второго сегмента с использованием второго начального значения, равного последнему реконструированному выборочному значению первого сегмента, полученный на первом этапе 50, и второй набор параметров прогностической модели.
На третьем этапе 52 декодированный сигнал строится путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента.
Способ декодирования можно дополнительно улучшать путем присоединения этапа добавление после третьего этапа 53 в котором для каждой реконструированной выборки соответствующая ошибка прогнозирования добавляется к реконструированному выборочному значению реконструированной выборки. Ошибка прогнозирования может быть кластеризованной ошибкой прогнозирования, и в этом случае требуется только центр кластеризации ошибки прогнозирования или индекс этого центра кластеризации ошибки прогнозирования.
На первом этапе 50 и втором этапе 51 реконструкция исходного сигнала, который использовался для обучения кусочной прогностической модели, сводится к оцениванию этой кусочной прогностической модели для te [0,N-1]. Уравнения кусочной прогностической модели ppm(0) = signal(O) ppm(t) = ppm(st(ty) + lpmst^tyn(i - t>0 можно использовать непосредственно для осуществления этой реконструкции, приводящей к реконструированному сигналу.
Показано, что реконструкция начинается с начального значению и применяет каждую локальную прогностическую модель по очереди для генерации следующих n значений реконструкции:
- 8 035903 recon(O) = seed recon(l) = recon(O) + lpm0(l) recon(n) = recon(O) + lpm0(n) recon(n + 1) = recon(n) + Ipm^l) recon(n + n) = recon(n) + Ipm^n)
Заметим, что каждая локальная прогностическая модель опирается на смещение, заданное последней реконструированной выборкой предыдущего сегмента: для реконструкции для t=kn+i,keN,iG[1,n], recon(kn) используется как начальная точка, и затем добавляется выход локальной прогностической модели lpmk(i).
Таким образом удается избежать накопления ошибки.

Claims (20)

  1. ФОРМУЛА ИЗОБРЕТЕНИЯ
    1. Кодер сигнала, выполненный на базе микропроцессорного устройства, содержащий вход для приема сигнала, содержащего кадры, причем каждый кадр содержит последовательные выборки, и выход для предоставления кодированного сигнала, причем кодер сигнала дополнительно содержит сегментатор, содержащий вход для приема сигнала и выполненный с возможностью сегментирования последовательных выборок кадра на сегменты, содержащие n последовательных выборок, аппроксиматор, содержащий вход для приема сегментов от сегментатора и начальных значений и выход для предоставления кодированного сигнала, содержащего для каждого сегмента набор параметров прогностической модели, на выход кодера, причем аппроксиматор выполнен с возможностью прогнозирования выборок первого сегмента начиная с первой начальной выборки, имеющей первое начальное значение, определения первого набора параметров прогностической модели путем аппроксимации n последовательных выборок первого сегмента с использованием первой прогностической модели, затем прогнозирования выборок второго сегмента, следующего за первым сегментом, начиная со второй начальной выборки, имеющей второе начальное значение, и определения второго набора параметров прогностической модели путем прогнозирования n последовательных выборок второго сегмента с использованием второй прогностической модели, при этом второе начальное значение равно спрогнозированному значению последней выборки n первого сегмента.
  2. 2. Кодер сигнала по п.1, отличающийся тем, что дополнительно содержит кластеризатор параметров прогностической модели, выполненный с возможностью кластеризации параметров прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие предоставлению на выход кодера сигнала для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
  3. 3. Кодер сигнала по п.1, отличающийся тем, что содержит аппроксиматор ошибки прогнозирования, выполненный с возможностью определения ошибки прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки и аппроксиматор ошибки прогнозирования дополнительно содержит выход для предоставления ошибки прогнозирования для каждой выборки, подлежащей коррекции, на выход кодера сигнала.
  4. 4. Кодер сигнала по п.3, отличающийся тем, что содержит кластеризатор ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки прогнозирования, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, и при этом ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является центром кластеризации ошибки, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
  5. 5. Кодер сигнала по п.4, отличающийся тем, что содержит кластеризатор ошибки, выполненный с возможностью кластеризации ошибок прогнозирования, определенных аппроксиматором ошибки прогнозирования, на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки, причем ошибка прогнозирования, подлежащая предоставлению на выход кодера сигнала для каждой выборки, подлежащей коррекции, является индексом центра кластеризации ошибки прогнозирования, соответствующим ошибке прогнозирования для каждой выборки, подлежащей коррекции.
  6. 6. Кодер сигнала по п.4, отличающийся тем, что является многоканальным кодером сигнала, причем кластеризатор ошибки выполнен с возможностью кластеризации ошибки прогнозирования из множественных каналов в единый набор центров кластеризации ошибки.
  7. 7. Декодер сигнала, выполненный на базе микропроцессорного устройства, содержащий вход для
    - 9 035903 приема кодированного сигнала, содержащего начальные значения и наборы параметров прогностической модели, представляющих сегменты сигнала, выход для предоставления декодированного сигнала, причем декодер сигнала дополнительно содержит реконструктор, содержащий вход для приема начальных значений и параметров прогностической модели от входа декодера и выход реконструктора для предоставления реконструированных сегментов, содержащих реконструированные выборки, причем каждая реконструированная выборка имеет реконструированное выборочное значение, причем реконструктор выполнен с возможностью реконструкции первого сегмента путем вычисления реконструированного выборочного значения (recon (1)...recon(n)) каждой реконструированной выборки первого сегмента с использованием первого начального значения и первого набора параметров прогностической модели и реконструкции второго сегмента, следующего за первым сегментом, путем вычисления реконструированного выборочного значения (recon(n+1)...recon(n+n)) каждой реконструированной выборки второго сегмента с использованием второго начального значения и второго набора параметров прогностической модели, секвенсор, имеющий вход секвенсора для приема первого сегмента и второго сегмента от реконструктора, причем секвенсор выполнен с возможностью построения декодированного сигнала путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента и предоставления результирующего декодированного сигнала на выход декодера сигнала, при этом второе начальное значение равно последнему реконструированному выборочному значению первого сегмента.
  8. 8. Декодер сигнала по п.7, содержащий компенсатор ошибки прогнозирования, выполненный с возможностью для каждой реконструированной выборки, подлежащей коррекции, добавления соответствующей ошибки прогнозирования к реконструированному выборочному значению реконструированной выборки.
  9. 9. Декодер сигнала по п.8, в котором ошибки прогнозирования, подлежащие добавлению, являются центрами кластеризации ошибки.
  10. 10. Декодер сигнала по п.7, в котором компенсатор ошибки прогнозирования выполнен с возможностью для каждой реконструированной выборки, подлежащей коррекции, приема соответствующего индекса набора центров кластеризации ошибки прогнозирования от входа декодера сигнала, и компенсатор ошибки прогнозирования дополнительно выполнен с возможностью выбора центра кластеризации ошибки прогнозирования, подлежащей добавлению к реконструированному выборочному значению реконструированной выборки, подлежащей коррекции, из набора центров кластеризации ошибки прогнозирования, указанных принятым соответствующим индексом.
  11. 11. Декодер сигнала по п.7, отличающийся тем, что является многоканальным декодером сигнала, причем компенсатор ошибки прогнозирования выполнен с возможностью использования одного набора центров кластеризации ошибки прогнозирования для множественных каналов.
  12. 12. Устройство записи, содержащее кодер по п.1.
  13. 13. Устройство воспроизведения, содержащее декодер по п.7.
  14. 14. Способ кодирования сигнала, содержащего кадры, с использованием кодера сигнала по п.1, причем каждый кадр содержит последовательные выборки в кодированный сигнал, причем способ содержит этапы, на которых сегментируют последовательные выборки кадра на сегменты, содержащие n последовательных выборок, прогнозируют выборки первого сегмента, принятые от сегментатора, начиная с первой начальной выборки, имеющей первое начальное значение, и определяют первый набор параметров прогностической модели путем прогнозирования n последовательных выборок первого сегмента с использованием первой прогностической модели, затем прогнозируют принятые от сегментатора выборки второго сегмента, следующего за первым сегментом, начиная со второй начальной выборки, имеющей второе начальное значение, и определяют второй набор параметров прогностической модели путем прогнозирования n последовательных выборок второго сегмента с использованием второй прогностической модели, выводят кодированный сигнал, содержащий начальные значения и параметры прогностической модели, на выход кодера, при этом второе начальное значение равно спрогнозированному значению последней выборки первого сегмента.
  15. 15. Способ кодирования по п.14, дополнительно содержащий этап, на котором кластеризуют параметры прогностической модели на кластеры параметров прогностической модели вокруг центров кластеризации параметров прогностической модели, причем параметры прогностической модели, подлежащие включению в кодированный сигнал для каждого сегмента, являются центрами кластеризации параметров прогностической модели, к которым параметр прогностической модели был кластеризован, соответствующими этому сегменту.
  16. 16. Способ кодирования по п.14, отличающийся тем, что дополнительно содержит этапы, на которых
    - 10 035903 определяют ошибку прогнозирования для каждой выборки, подлежащей коррекции, причем ошибка прогнозирования является разностью между выборочным значением выборки и спрогнозированным выборочным значением упомянутой выборки, и предоставляют ошибку прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
  17. 17. Способ кодирования по п.16, отличающийся тем, что дополнительно содержит этапы, на которых кластеризуют ошибки прогнозирования на кластеры ошибок прогнозирования вокруг центров кластеризации ошибки и предоставляют для каждой выборки, подлежащей коррекции, центр кластеризации ошибки прогнозирования, соответствующий ошибке прогнозирования для каждой выборки, подлежащей коррекции, для включения в кодированный сигнал.
  18. 18. Компьютерно-считываемый носитель данных, содержащий машиночитаемые инструкции, исполняемые микропроцессорным устройством кодера по п.1, для осуществления способа по п.14.
  19. 19. Способ декодирования сигнала, содержащего кадры, с использованием декодера по п.7 для декодирования кодированного сигнала, содержащего начальные значения и наборы параметров прогностической модели, представляющих сегменты кодированного сигнала, причем способ декодирования содержит этапы, на которых реконструируют первый сегмент путем вычисления реконструированного выборочного значения (recon (1)...recon (n)) каждой реконструированной выборки первого сегмента с использованием первого начального значения и первого набора параметров прогностической модели и реконструируют второй сегмент, следующий за первым сегментом, путем вычисления реконструированного выборочного значения (recon (n+1) ...recon (n+n) ) каждой реконструированной выборки второго сегмента с использованием второго начального значения и второго набора параметров прогностической модели, и строят декодированный сигнал путем присоединения реконструированных выборок второго реконструированного сегмента к реконструированным выборкам первого реконструированного сегмента, при этом второе начальное значение равно последнему реконструированному выборочному значению первого сегмента.
  20. 20. Способ декодирования по п.19, дополнительно содержащий этап, на котором для каждой реконструированной выборки добавляют соответствующую ошибку прогнозирования к реконструированному выборочному значению реконструированной выборки.
EA201891568A 2016-01-03 2016-07-15 Кодер сигнала, декодер и способы их работы с использованием прогностической модели EA035903B1 (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP15003698 2016-01-03
PCT/EP2016/066981 WO2017118495A1 (en) 2016-01-03 2016-07-15 A signal encoder, decoder and methods using predictor models

Publications (2)

Publication Number Publication Date
EA201891568A1 EA201891568A1 (ru) 2019-01-31
EA035903B1 true EA035903B1 (ru) 2020-08-28

Family

ID=55077324

Family Applications (1)

Application Number Title Priority Date Filing Date
EA201891568A EA035903B1 (ru) 2016-01-03 2016-07-15 Кодер сигнала, декодер и способы их работы с использованием прогностической модели

Country Status (11)

Country Link
US (1) US10530388B2 (ru)
EP (1) EP3398191B1 (ru)
JP (1) JP7082056B2 (ru)
KR (1) KR102595478B1 (ru)
CN (1) CN108701466B (ru)
AU (1) AU2016384679B2 (ru)
BR (1) BR112018013668A2 (ru)
CA (1) CA3045515A1 (ru)
EA (1) EA035903B1 (ru)
IL (1) IL260387A (ru)
WO (1) WO2017118495A1 (ru)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911353B2 (en) 2015-06-17 2021-02-02 Extreme Networks, Inc. Architecture for a network visibility system
US20190385055A1 (en) * 2018-06-14 2019-12-19 Electronics And Telecommunications Research Institute Method and apparatus for artificial neural network learning for data prediction
KR102048661B1 (ko) * 2019-08-21 2019-11-28 브이에스아이 주식회사 공유 버스를 통해 전송되는 데이터 신호에 대한 샘플링의 타이밍 오차를 신속하게 보상하는 방법과 그 방법을 위한 기기

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69233502T2 (de) 1991-06-11 2006-02-23 Qualcomm, Inc., San Diego Vocoder mit veränderlicher Bitrate
US6690307B2 (en) 2002-01-22 2004-02-10 Nokia Corporation Adaptive variable length coding of digital video
JP3807342B2 (ja) * 2002-04-25 2006-08-09 三菱電機株式会社 デジタル信号符号化装置、デジタル信号復号装置、デジタル信号算術符号化方法、およびデジタル信号算術復号方法
CA2415105A1 (en) * 2002-12-24 2004-06-24 Voiceage Corporation A method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
US8605588B2 (en) * 2007-05-08 2013-12-10 Cisco Technology, Inc. Packet drop analysis for flows of data
CN104978970B (zh) 2014-04-08 2019-02-12 华为技术有限公司 一种噪声信号的处理和生成方法、编解码器和编解码系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Spline (mathematics)", Wikipedia, 28 November 2015 (2015-11-28), XP002763446, Retrieved from the Internet:URL:https://en.wikipedia.org/w/index.php?title=Spline_%28mathematics%29&oldid=692805134 [retrieved on 2016-10-26] the whole document *
Yinghua Yang, Ciprian Doru Giurcaneanu, Ioan Tabus: "AN APPLICATION OF THE PIECEWISE AUTOREGRESSIVE MODEL IN LOSSLESS AUDIOCODING", internet article, 2006, XP002763445, Retrieved from the Internet:URL:http://citeseerx.ist.psu.edu/viewdoc/download?doi =10.1.1.330.2413&rep=repl&type=pdf [retrieved on 2016-10-25] the whole document *

Also Published As

Publication number Publication date
CA3045515A1 (en) 2017-07-13
KR20180108643A (ko) 2018-10-04
KR102595478B1 (ko) 2023-10-27
EP3398191A1 (en) 2018-11-07
US10530388B2 (en) 2020-01-07
CN108701466B (zh) 2023-05-02
EA201891568A1 (ru) 2019-01-31
AU2016384679A1 (en) 2018-08-23
US20190028114A1 (en) 2019-01-24
BR112018013668A2 (pt) 2019-01-22
AU2016384679B2 (en) 2022-03-10
WO2017118495A1 (en) 2017-07-13
EP3398191B1 (en) 2021-04-28
JP2019505840A (ja) 2019-02-28
IL260387A (en) 2018-10-31
JP7082056B2 (ja) 2022-06-07
CN108701466A (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
US11942101B2 (en) Audio entropy encoder/decoder with arithmetic coding and coding context
JP4426483B2 (ja) オーディオ信号の符号化効率を向上させる方法
KR20070067170A (ko) 패킷 손실 보상
KR20040011100A (ko) 개선된 비트율 제어 방법과 그 장치
CN105706165B (zh) 使用噪声填充的音频编码器、解码器、编码及解码方法
EA035903B1 (ru) Кодер сигнала, декодер и способы их работы с использованием прогностической модели
JP2006528368A (ja) オーディオファイルフォーマット変換
JPWO2019160860A5 (ru)
RU2767286C2 (ru) Аудиокодеры, аудиодекодеры, способы и компьютерные программы, применяющие кодирование и декодирование младших значащих битов
KR20190133302A (ko) 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
CN107454397A (zh) 对预测值执行色彩空间转换的图像编码/解码方法及装置
JP2007504503A (ja) 低ビットレートオーディオ符号化
KR20060070400A (ko) 영상 신호의 인코딩 및 디코딩 방법
EP1310943B1 (en) Speech coding apparatus, speech decoding apparatus and speech coding/decoding method
EP1363274A1 (en) Voice code sequence converting device and method
EP3642839B1 (en) Audio signal encoding and decoding
JP4918103B2 (ja) 符号化方法、復号方法、それらの装置、プログラム及び記録媒体
RU2319222C1 (ru) Способ кодирования и декодирования речевого сигнала методом линейного предсказания
US20210217199A1 (en) Systems and methods for scalable throughput entropy coder
KR20200038297A (ko) 스테레오 신호 인코딩에서의 신호 재구성 방법 및 디바이스
US20060133488A1 (en) Method for encoding and decoding video signal
KR100220677B1 (ko) 대역 분할 부호화 시스템의 버퍼 제어 장치
US20220335960A1 (en) Audio signal encoding method and apparatus, and audio signal decoding method and apparatus
KR102099111B1 (ko) 블록 예측을 기반한 영상 스트림 재압축 시스템 및 이를 이용한 영상 스트림 재압축 방법
CN115776565A (zh) 视频编码设备和方法