RU2121173C1 - Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона - Google Patents

Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона Download PDF

Info

Publication number
RU2121173C1
RU2121173C1 RU96122985A RU96122985A RU2121173C1 RU 2121173 C1 RU2121173 C1 RU 2121173C1 RU 96122985 A RU96122985 A RU 96122985A RU 96122985 A RU96122985 A RU 96122985A RU 2121173 C1 RU2121173 C1 RU 2121173C1
Authority
RU
Russia
Prior art keywords
specified
synthesized speech
subframe
future
window
Prior art date
Application number
RU96122985A
Other languages
English (en)
Other versions
RU96122985A (ru
Inventor
Леон Биалик
Феликс Фломен
Original Assignee
Аудиокоудс, Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Аудиокоудс, Лтд. filed Critical Аудиокоудс, Лтд.
Application granted granted Critical
Publication of RU2121173C1 publication Critical patent/RU2121173C1/ru
Publication of RU96122985A publication Critical patent/RU96122985A/ru

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/113Regular pulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Monitoring And Testing Of Transmission In General (AREA)

Abstract

В соответствии с настоящим изобретением синтезированную речь пропускают через постфильтр, который производит вычисления на основании будущих и предшествующих данных. Кадры данных разделены на субкадры для назначения точек вычисления. Технический результат заключается в улучшении соответствия синтезированной и исходной речи. 2 с. и 8 з.п. ф-лы. 3 ил.

Description

Изобретение главным образом имеет отношение к созданию систем обработки речевого сигнала и, в частности, касается создания систем с использованием постфильтрации.
Обработка речевого сигнала широко известна и часто применяется для сжатия поступающего речевого сигнала как для хранения, так и для последующей передачи. Обработка речевого сигнала обычно связана с делением входного речевого сигнала на блоки данных (кадры), с последующим анализом каждого блока данных для нахождения его компонентов. Затем полученные компоненты используются как для хранения, так и для последующей передачи.
Если есть желание восстановить исходный речевой сигнал, то каждый кадр декодируют и осуществляют операции синтеза, которые обычно в основном являются инверсией анализа. Полученная при этом синтезированная речь обычно не в полной мере аналогична исходной речи. Поэтому для "улучшения" звукового сигнала обычно осуществляют операции постфильтрации.
Одним из видов постфильтрации является постфильтрация основного тона, при которой информация основного тона, полученная на выходе кодирующего устройства, используется для фильтрации синтезированного сигнала. В известных ранее постфильтрах основного тона производится просмотр ранее полученных выборок участка синтезированного речевого сигнала p0, где p0 представляет собой значение основного тона. Субкадр ранее полученной речи, который наилучшим образом совпадает с текущим субкадром, комбинируется с текущим субкадром, обычно в соотношении 1 : 0,25 (то есть предшествующий сигнал ослабляется на три четверти).
К сожалению, речевые сигналы не всегда содержат основной тон. Это относится к случаю промежутка между словами; кроме того, в конце или в начале слова основной тон может изменяться. Так как в известных ранее постфильтрах основного тона производится комбинирование ранее полученной речи с текущим субкадром и так как основной тон ранее полученный речи не совпадает с основным тоном текущего субкадра, то на выходе такого постфильтра основного тона можно получить слабый выходной сигнал в начале слов. Аналогичное справедливо и для субкадра с окончаниями произнесенных слов. Если же большинство субкадров относится к молчанию или к шумам (например, если речь уже закончилась), то основной тон ранее полученного сигнала вообще не может быть использован.
Авторы данного изобретения обратили внимание на то, что декодеры речи обычно создают речевые кадры между их оперативными элементами, в то время как постфильтры основного тона оперируют только с субкадрами речевым сигналов.
Так, например для некоторых из субкадров имеется информация, касающаяся будущих речевых образов.
В связи с изложенным, задачей настоящего изобретения является создание постфильтра основного тона и способа, в которых используется будущая и предыдущая информация по меньшей мере для некоторых из субкадров.
В соответствии с предпочтительным вариантом осуществления настоящего изобретения, постфильтр основного тона получает кадр синтезированной речи, и для каждого субкадра, входящего в кадр синтезированной речи, вырабатывает сигнал, который является функцией субкадра и окон более ранней и более поздней синтезированной речи. Каждое окно используется только при его приемлемом совпадении с субкадром.
В частности, в соответствии с предпочтительным вариантом осуществления настоящего изобретения, постфильтр основного тона осуществляет проверку совпадения окна более ранней синтезированной речи с субкадром и затем принимает (допускает) это окно более ранней синтезированной речи только в том случае, если ошибка между субкадром и взвешенной версией окна мала. Если имеется достаточный промежуток более поздней синтезированной речи, то постфильтр основного тона осуществляет также проверку совпадения окна более поздней синтезированной речи с субкадром и затем принимает (допускает) это окно, если ошибка мала. В этом случае выходной сигнал является функцией субкадра и окон более ранней и более поздней синтезированной речи, если они были приняты.
Далее, в соответствии с предпочтительным вариантом осуществления настоящего изобретения, оценка совпадения предусматривает определение более раннего и более позднего усиления соответственно для окон более ранней и более поздней синтезированной речи.
Кроме того, в соответствии с предпочтительным вариантом осуществления настоящего изобретения, функция для выходного сигнала является суммой субкадра, более раннего окна синтезированной речи, взвешенного более ранним усилением и первым разрешающим весом, и более позднего окна синтезированной речи, взвешенного более поздним усилением и вторым разрешающим весом.
Наконец, также в соответствии с предпочтительным вариантом осуществления настоящего изобретения, первый и второй разрешающие веса зависят от результатов шагов приятия решения (о совпадении).
Настоящее изобретение может быть более полно понятно и оценено из последующего подробного его описания, приведенного со ссылкой на чертежи.
На фиг. 1 показана структурная схема системы, которая включает в себя постфильтр в соответствии с настоящим изобретением; на фиг. 2 - схема, позволяющая лучше понять работу постфильтра в соответствии с фиг. 1; на фиг. 3 - блок-схема операций постфильтра в соответствии с фиг.1.
Обратимся теперь к рассмотрению фиг. 1, 2 и 3, которые позволяют понять работу постфильтра в соответствии с настоящим изобретением.
Как показано на фиг. 1, постфильтр основного тона, обозначенный позицией 10, в соответствии с настоящим изобретением получает кадры синтезированной речи от синтезирующего фильтра 12, такого как синтезирующий фильтр с коэффициентом линейного прогнозирования (LPC). Постфильтр основного тона 10 получает также значение основного тона, которое было получено ранее в декодере речи. Постфильтр основного тона 10 не должен быть обязательно первым постфильтром; он может также получать постфильтрованные кадры синтезированной речи. Постфильтр основного тона 10 включает в себя буферное устройство (буфер) текущего кадра 25, буфер предшествующего кадра 26, детерминатор (устройство определения) опережения/запаздывания 27 и постфильтр 28. Буфер текущего кадра 25 запоминает текущий кадр синтезированной речи и его разбивание на субкадры. Буфер предшествующего кадра 26 запоминает предшествующие кадры синтезированной речи. Детерминатор опережения/запаздывания 27 определяет указанные ранее показатели опережения и запаздывания относительно значения основного тона p0. Постфильтр 28 получает субкадр s [n] и будущее окно s [n + LEAD] от буфера текущего кадра 25 и вырабатывает из них постфильтрованный сигнал.
Следует иметь в виду, что синтезирующий фильтр 12 синтезирует кадры синтезированной речи и подает их на постфильтр основного тона 10. Аналогично известным ранее постфильтрам основного тона, постфильтр в соответствии с настоящим изобретением оперирует с субкадрами синтезированной речи. Однако, так как заявители настоящего изобретения поняли, что при обработке субкадров на буфере текущего кадра 25 имеется полный кадр синтезированной речи, то постфильтр основного тона 10 в соответствии с настоящим изобретением также использует будущую информацию по меньшей мере для некоторых из субкадров.
Это показано на фиг.2, где изображены восемь субкадров 20a - 20h двух кадров 22a и 22b, которые запоминаются соответственно в буфере текущего кадра 25 и в буфере предыдущего кадра 26. Показаны также местоположения, из которых могут быть взяты аналогичные субкадры данных для более поздних субкадров 20e - 20h. Как показывает стрелка 24e, для первого субкадра 20e данные могут быть взяты из предыдущих субкадров 20d, 20e и 20b, а также из будущих субкадров 20e, 20f и 20g. Как показывает стрелка 24f, для второго субкадра 20f данные могут быть взяты из предыдущих субкадров 20e, 20d и 20c, а также из будущих субкадров 20f, 20g и 20h. Следует иметь в виду, что для более поздних субкадров 20g и 20h имеется меньше будущих данных, которые могли бы быть использованы (так как при этом субкадр 20h отсутствует), однако при этом имеется некоторое количество прошлых данных, которое может быть использовано.
Детерминатор опережения/запаздывания 27 в соответствии с настоящим изобретением производит поиск в прошлом и будущем сигналов синтезированной речи, раздельно определяет для них положение выборок запаздывания и опережения или соответственно показатель, в соответствии с которым окна длины субкадра прошедшего и будущего сигналов, начинающиеся соответственно при выборах запаздывания и опережения, наиболее полно совпадают с текущим субкадром. Если совпадение плохое, то окно не используется. Обычно поиск проводят в пределах 20 - 146 выборок раньше и позже текущего субкадра, как это показано стрелками 24. Диапазон поиска сокращен для будущих данных (то есть для субкадров 20g и 20h).
После этого постфильтр 28 производит постфильтрацию сигнала синтезированной речи с использованием любого или обоих совпавших окон.
Один из вариантов построения постфильтра в соответствии с настоящим изобретением иллюстрируется фиг. 3, на которой приведена блок-схема его операций для одного субкадра. Операции 30 - 74 осуществляются при помощи детерминатора опережения/запаздывания 27, а операции 76 и 78 осуществляются при помощи постфильтра 28.
Операции способа в соответствии с настоящим изобретением начинаются с инициализации (шаг 30), при которой устанавливают в качестве величины минимального критерия минимальные и максимальные значения опережения/запаздывания. В соответствии с этим вариантом, минимальным опережением/запаздыванием является минимальный (основной тон - дельта, 20), а максимальным опережением/запаздыванием является (максимальный (основной тон + дельта, 146). В соответствии с этим вариантом дельта равняется трем.
При проведении операций 34 - 44 определяют значение опережения, а при проведении операций 60 - 70 определяют значение запаздывания, если они имеются. Обе секции осуществляют одинаковые операции, при этом предыдущие данные запоминают в буфере предшествующего кадра 26, а будущие данные запоминают в буфере текущего кадра 25. Поэтому операции будут описаны ниже только для одной из секций. Однако полученные уравнения являются разными, как это указано далее.
При проведении операции 32 устанавливают минимальную величину показателя запаздывания M_g, а при проведении операций 34 и 36 с показателем запаздывания M_g объединяют усиление g_g и определяют критерий E_g для этого показателя запаздывания. Усиление g_g является отношением кросс-корреляция субкадра s [n] и предыдущего окна s[n-M_g] с автокорреляцией предыдущего окна s[n-M_ g] в соответствии с выражением
g_g = Σs[n]*s[n-M_g]/Σs2[n-M_g], 0 ≤ n ≤ 59. (1)
Критерий E_ g представляет собой энергию сигнала ошибки s[n] - g_g * s[n-M _g] в соответствии с выражением
E_g = Σ(s[n]-g_g*s[n-M_g])2, 0 ≤ n ≤ 59. (2)
Если результирующий критерий меньше ранее определенного минимального значения (операция 38), то производят запоминание текущего показателя запаздывания M_g и условия g_g, а также устанавливают минимальное значение текущего усиления (операция 40). Показатель запаздывания увеличивают на единицу (операция 42) и процесс повторят до достижения максимального значения показателя запаздывания.
При проведении операций 46 - 50 результат определения запаздывания принимают только в том случае, если усиление запаздывания, которое найдено при проведении операций 34 - 44, больше заданной величины порога или равно ей, причем порог, например, может быть равен 0,625. При проведении операции 46 признак разрешения запаздывания устанавливают на 0, а при проведении операции 48 проверяют порог усиления запаздывания g _ g. При проведении операции 50 принимают результат установкой признака разрешения запаздывания на 1. Таким образом, для предыдущего речевого сигнала, который не аналогичен текущему субкадру, например, если в текущем субкадре имеется речь, а в предыдущем ее нет, данные для предыдущего субкадра использоваться не будут.
При проведении операций 52 - 56 признак разрешения опережения устанавливают только в том случае, когда сумма текущего положения N, длительность субкадра (длина которого обычно составляет 60 выборок) и максимального значения запаздывания/опережения, составляет меньше длительности кадра (длина которого обычно составляет 240 выборок). Таким образом, будущие данные используют только тогда, когда они имеются в достаточном количестве. При проведении операции 52 признак разрешения опережения устанавливают на 0, а при проведении операции 54 производят проверку приемлемости суммы, и, если она приемлема, то при проведении операции 56 признак разрешения опережения устанавливают на 1.
При проведении операции 58 повторно инициализируют минимальное значение и показатель опережения устанавливают на минимальное значение опережения. Как уже упоминалось ранее, операции 60 - 70 аналогичны операциям 34 - 44; при их проведении определяют показатель опережения, который наилучшим образом совпадает с представляющим интерес субкадром. Опережение обозначают M _ d, усилие обозначают g _ d, а критерий обозначают E _ d; они определены уравнениями 3 и 4 в следующем виде:
g_d = Σs[n]*s[n-M_d]/Σs2[n-M_d], 0 ≤ n ≤ 59; (3)
E_d = Σ(s[n]-g_d*s[n-M_d])2, 0 ≤ n ≤ 59. (4)
При проведении операции 60 находят усилие g_d, при проведении операции 62 находят критерий E_d, при проведении операции 64 проверяют, что критерий E_ d меньше, чем минимальное значение, а при проведении операции 66 производят запоминание опережения M_d и усиление опережения g_d, а также обновляют минимальное значение E_d. При проведении операции 68 увеличивают показатель опережения на единицу, а при проведении операции 70 определяют, превышает или нет показатель опережения значение максимального показателя опережения.
При проведении операций 72 и 74 признак разрешения опережения блокируют (операция 74), если усиление опережения, которое найдено при проведении операций 60 - 70, является слишком низким (например, ниже заданного порога), причем эту проверку осуществляют при проведении операции 72.
При проведении операции 76 определяют веса запаздывания w_g и опережения w_ d соответственно из признаков разрешения запаздывания и опережения. Веса w_g и w_d определяют вклады, если они есть, будущих и предыдущих данных.
В соответствии с этим вариантом вес запаздывания w_g представляет собой максимум выражения (разрешение запаздывания - (0,5* разрешение опережения)) и 0, умноженного на 0,25. Вес опережения w_d представляет собой максимум выражения (разрешение опережения - (0,5* разрешение запаздывания)) и 0, умноженного на 0,25. Другими словами, веса запаздывания w_g и опережения w_d оба равны 0,125 в том случае, когда имеются как будущие, так и предшествующие данные, которые совпадают с текущим субкадром; равны 0,25 в том случае, когда только один из этих весов совпадает с текущим субкадром; равны 0, когда нет совпадения.
При проведении операции 78 получают выходной сигнал p[n], который является функцией сигнала s[n], более раннего окна s[n-M_g] и более позднего окна s[n -M_d]. Величина M_g и M_d представляет собой соответственно показатели запаздывания и опережения, которые хранятся в памяти. Функция сигнала p[n] для данного варианта может быть определена в соответствии со следующими выражениями 5 и 6:
p[n]=g_p*{s[n]+w_g*g_g*s[n-M_g]+w_d* g_d*s[n-M_d]}= g_p*p'[n];
g_p = sqrt(Σs2[n]/Σp′2[n]), 0 ≤ n ≤ 59. (6)
Операции 30 - 78 повторяют для каждого субкадра.
Следует иметь в виду, что настоящее изобретение включает в себя все постфильтры основного тона, в которых используется как будущая, так и предшествующая информация.
Несмотря на то, что был описан предпочтительный вариант осуществления изобретения, совершено ясно, что в него специалистами в данный области могут быть внесены изменения и дополнения, которые не выходят однако из рамки приведенной далее формулы изобретения.

Claims (10)

1. Способ постфильтрации основного тона синтезированной речи, включающий в себя следующие операции: прием кадра синтезированной речи, который разделен на множество субкадров, и значения основного тона, объединенного с указанным кадром, и для каждого субкадра указанного кадра синтезированной речи выработку выходного сигнала, который является постфильтрованной версией основного тона текущего субкадра, отфильтрованной при помощи одного из выбранных элементов группы, состоящей из предшествующих и будущих данных указанной синтезированной речи, а также из будущих данных указанной синтезированной речи, причем указанные предшествующие данные имеют запаздывание относительно текущего субкадра на показатель запаздывания, а указанные будущие данные имеют опережение относительно текущего субкадра на показатель опережения, при этом указанные показатели запаздывания и опережения основаны на указанном значении основного тона.
2. Способ по п. 1, отличающийся тем, что указанная операция выработки включает в себя следующие операции: проверка совпадения субкадра с предшествующим окном указанной предшествующей синтезированной речи, начинающимся при указанном показателе запаздывания, принятие указанного совпавшего предшествующего окна только в том случае, когда ошибка между указанным субкадром и взвешенной версией указанного предшествующего окна лежит ниже порога, и, если имеется достаточно будущей синтезированной речи, проверка совпадения субкадра с будущим окном указанной будущей синтезированной речи, начинающимся при указанном показателе опережения, принятие указанного совпавшего будущего окна только в том случае, когда ошибка между указанным субкадром и взвешенной версией указанного будущего окна лежит ниже порога, и создание указанного выходного сигнала путем постфильтрации указанного субкадра при помощи одного из выбранных элементов группы, состоящей из указанных предшествующих и будущих окон и указанного будущего окна.
3. Способ по п. 2, отличающийся тем, что указанные операции определения совпадения предусматривают операции определения более раннего и более позднего усиления соответственно для окон более ранней и более поздней синтезированной речи.
4. Способ по п. 3, отличающийся тем, что указанная операция выработки включает в себя определение сигнала, который является суммой указанного субкадра, более раннего окна синтезированной речи, взвешенного более ранним усилением и первым разрешающим весом, и более позднего окна синтезированной речи, взвешенного более поздним усилением и вторым разрешающим весом.
5. Способ по п. 4, отличающийся тем, что указанные первый и второй разрешающие веса зависят от результата указанных операций принятия решения.
6. Постфильтр основного тона для постфильтрации синтезированной речи, отличающийся тем, что он включает в себя средство для приема кадра синтезированной речи, который разделен на множество субкадров, и значения основного тона, объединенного с указанным кадром, и средство выработки, для каждого субкадра указанного кадра синтезированной речи, выходного сигнала, который является постфильтрованной версией основного тона текущего субкадра, отфильтрованной при помощи одного из выбранных элементов группы, состоящей из предшествующих и будущих данных указанной синтезированной речи, а также из будущих данных указанной синтезированной речи, причем указанные предшествующие данные имеют запаздывание относительно текущего субкадра на показатель запаздывания, а указанные будущие данные имеют опережение относительно текущего субкадра на показатель опережения, при этом указанные показатели запаздывания и опережения основаны на указанном значении основного тона.
7. Фильтр по п. 6, отличающийся тем, что указанное средство выработки включает в себя первое средство сравнения проверки совпадения субкадра с предшествующим окном указанной предшествующей синтезированной речи, начинающимся при указанном показателе запаздывания, первое средство сравнения для принятия указанного совпавшего предшествующего окна только в том случае, когда ошибка между указанным субкадром и взвешенной версией указанного предшествующего окна лежит ниже порога, второе средство проверки совпадения, которое работает только в том случае, если имеется достаточно будущей синтезированной речи, для проверки совпадения субкадра с будущим окном указанной будущей синтезированной речи, начинающимся при указанном показателе опережения, второе средство сравнения для принятия указанного совпавшего будущего окна только в том случае, когда ошибка между указанным субкадром и взвешенной версией указанного будущего окна лежит ниже порога, и средство фильтрации для создания указанного выходного сигнала путем постфильтрации указанного субкадра при помощи одного из выбранных элементов группы, состоящей из указанных предшествующих и будущих окон и указанного будущего окна.
8. Фильтр по п. 7, отличающийся тем, что указанные первое и второе средства определения совпадения включают в себя детерминаторы усиления для определения более раннего и более позднего усиления соответственно для окон более ранней и более поздней синтезированной речи.
9. Фильтр по п. 8, отличающийся тем, что указанное средство фильтрации включает в себя средство для определения сигнала, который является суммой указанного субкадра, более раннего окна синтезированной речи, взвешенного более ранним усилением и первым разрешающим весом, и более позднего окна синтезированной речи, взвешенного более поздним усилением и вторым разрешающим весом.
10. Фильтр по п. 9, отличающийся тем, что указанные первый и второй разрешающие веса зависят от выходных сигналов первого и второго средств сравнения.
RU96122985A 1994-04-29 1995-04-27 Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона RU2121173C1 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/235,765 1994-04-29
US08/236,764 US5568588A (en) 1994-04-29 1994-04-29 Multi-pulse analysis speech processing System and method
US08/236,765 1994-04-29

Publications (2)

Publication Number Publication Date
RU2121173C1 true RU2121173C1 (ru) 1998-10-27
RU96122985A RU96122985A (ru) 1999-02-10

Family

ID=22890857

Family Applications (2)

Application Number Title Priority Date Filing Date
RU96122986A RU2121172C1 (ru) 1994-04-29 1995-04-27 Система и способ обработки речевого сигнала
RU96122985A RU2121173C1 (ru) 1994-04-29 1995-04-27 Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона

Family Applications Before (1)

Application Number Title Priority Date Filing Date
RU96122986A RU2121172C1 (ru) 1994-04-29 1995-04-27 Система и способ обработки речевого сигнала

Country Status (11)

Country Link
US (1) US5568588A (ru)
EP (1) EP0784846B1 (ru)
JP (1) JP3068196B2 (ru)
KR (1) KR100257775B1 (ru)
CN (1) CN1112672C (ru)
AU (1) AU683750B2 (ru)
BR (1) BR9507571A (ru)
CA (1) CA2189142C (ru)
DE (1) DE69521622T2 (ru)
RU (2) RU2121172C1 (ru)
WO (1) WO1995030222A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2665259C1 (ru) * 2014-07-28 2018-08-28 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для обработки звукового сигнала с использованием гармонического постфильтра

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3094908B2 (ja) * 1996-04-17 2000-10-03 日本電気株式会社 音声符号化装置
CA2213909C (en) * 1996-08-26 2002-01-22 Nec Corporation High quality speech coder at low bit rates
JP3147807B2 (ja) * 1997-03-21 2001-03-19 日本電気株式会社 信号符号化装置
US7272553B1 (en) 1999-09-08 2007-09-18 8X8, Inc. Varying pulse amplitude multi-pulse analysis speech processor and method
SE0004818D0 (sv) * 2000-12-22 2000-12-22 Coding Technologies Sweden Ab Enhancing source coding systems by adaptive transposition
US7493258B2 (en) * 2001-07-03 2009-02-17 Intel Corporation Method and apparatus for dynamic beam control in Viterbi search
EP1513137A1 (en) * 2003-08-22 2005-03-09 MicronasNIT LCC, Novi Sad Institute of Information Technologies Speech processing system and method with multi-pulse excitation
EP2120234B1 (en) * 2007-03-02 2016-01-06 Panasonic Intellectual Property Corporation of America Speech coding apparatus and method
AU2012217158B2 (en) 2011-02-14 2014-02-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Information signal representation using lapped transform
PL2676268T3 (pl) 2011-02-14 2015-05-29 Fraunhofer Ges Forschung Urządzenie i sposób przetwarzania zdekodowanego sygnału audio w domenie widmowej
BR112013020324B8 (pt) 2011-02-14 2022-02-08 Fraunhofer Ges Forschung Aparelho e método para supressão de erro em fala unificada de baixo atraso e codificação de áudio
CN103493129B (zh) 2011-02-14 2016-08-10 弗劳恩霍夫应用研究促进协会 用于使用瞬态检测及质量结果将音频信号的部分编码的装置与方法
PT2676267T (pt) 2011-02-14 2017-09-26 Fraunhofer Ges Forschung Codificação e descodificação de posições de pulso de faixas de um sinal de áudio
PL2676266T3 (pl) 2011-02-14 2015-08-31 Fraunhofer Ges Forschung Układ kodowania na bazie predykcji liniowej wykorzystujący kształtowanie szumu w dziedzinie widmowej
CN110660396A (zh) * 2018-06-13 2020-01-07 江苏德新科智能传感器研究院有限公司 一种基于mems的语言处理系统及其方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0107659A4 (en) * 1982-04-29 1985-02-18 Massachusetts Inst Technology VOICE ENCODER AND SYNTHESIZER.
NL8500843A (nl) * 1985-03-22 1986-10-16 Koninkl Philips Electronics Nv Multipuls-excitatie lineair-predictieve spraakcoder.
US5007094A (en) * 1989-04-07 1991-04-09 Gte Products Corporation Multipulse excited pole-zero filtering approach for noise reduction
EP0422232B1 (en) * 1989-04-25 1996-11-13 Kabushiki Kaisha Toshiba Voice encoder
US5060269A (en) * 1989-05-18 1991-10-22 General Electric Company Hybrid switched multi-pulse/stochastic speech coding technique
US5293449A (en) * 1990-11-23 1994-03-08 Comsat Corporation Analysis-by-synthesis 2,4 kbps linear predictive speech codec
CA2084323C (en) * 1991-12-03 1996-12-03 Tetsu Taguchi Speech signal encoding system capable of transmitting a speech signal at a low bit rate

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2665259C1 (ru) * 2014-07-28 2018-08-28 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для обработки звукового сигнала с использованием гармонического постфильтра
US10242688B2 (en) 2014-07-28 2019-03-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing an audio signal using a harmonic post-filter
US11037580B2 (en) 2014-07-28 2021-06-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing an audio signal using a harmonic post-filter
US11694704B2 (en) 2014-07-28 2023-07-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for processing an audio signal using a harmonic post-filter

Also Published As

Publication number Publication date
DE69521622D1 (de) 2001-08-09
CA2189142C (en) 2001-06-05
AU683750B2 (en) 1997-11-20
WO1995030222A1 (en) 1995-11-09
CN1153566A (zh) 1997-07-02
EP0784846B1 (en) 2001-07-04
AU2394895A (en) 1995-11-29
EP0784846A4 (ru) 1997-07-30
US5568588A (en) 1996-10-22
BR9507571A (pt) 1997-08-05
JPH09512645A (ja) 1997-12-16
MX9605179A (es) 1998-06-30
KR100257775B1 (ko) 2000-06-01
RU2121172C1 (ru) 1998-10-27
CA2189142A1 (en) 1995-11-09
DE69521622T2 (de) 2003-07-10
JP3068196B2 (ja) 2000-07-24
EP0784846A1 (en) 1997-07-23
CN1112672C (zh) 2003-06-25

Similar Documents

Publication Publication Date Title
RU2121173C1 (ru) Способ постфильтрации основного тона синтезированной речи и постфильтр основного тона
DE69928288T2 (de) Kodierung periodischer sprache
US5293448A (en) Speech analysis-synthesis method and apparatus therefor
US5018200A (en) Communication system capable of improving a speech quality by classifying speech signals
EP1338003B1 (en) Gains quantization for a celp speech coder
DE60120766T2 (de) Indizieren von impulspositionen und vorzeichen in algebraischen codebüchern zur codierung von breitbandsignalen
US5305421A (en) Low bit rate speech coding system and compression
JPH1124699A (ja) 音声符号化方法及び装置
US4589131A (en) Voiced/unvoiced decision using sequential decisions
JP3357795B2 (ja) 音声符号化方法および装置
JPH08179795A (ja) 音声のピッチラグ符号化方法および装置
KR100261132B1 (ko) 음조 포스트-필터
US5797119A (en) Comb filter speech coding with preselected excitation code vectors
JP2970407B2 (ja) 音声の励振信号符号化装置
US5884252A (en) Method of and apparatus for coding speech signal
JP2829978B2 (ja) 音声符号化復号化方法及び音声符号化装置並びに音声復号化装置
Yegnanarayana et al. Voice simulation: Factors affecting quality and naturalness
Lefevre et al. Efficient algorithms for obtaining multipulse excitation for LPC coders
JP2853170B2 (ja) 音声符号化復号化方式
US20130191134A1 (en) Method and apparatus for decoding an audio signal using a shaping function
JP3101430B2 (ja) 音声伝送方式
Chung et al. Performance evaluation of analysis-by-synthesis homomorphic vocoders
JP3263136B2 (ja) 信号のピッチ同期位置抽出方式及び信号合成方式
Kang et al. 800-b/s voice encoding algorithm
EP0119033A1 (en) Speech encoder