RU2807170C2 - Dialog detector - Google Patents

Dialog detector Download PDF

Info

Publication number
RU2807170C2
RU2807170C2 RU2021130115A RU2021130115A RU2807170C2 RU 2807170 C2 RU2807170 C2 RU 2807170C2 RU 2021130115 A RU2021130115 A RU 2021130115A RU 2021130115 A RU2021130115 A RU 2021130115A RU 2807170 C2 RU2807170 C2 RU 2807170C2
Authority
RU
Russia
Prior art keywords
frames
context
frame
dialogue
term
Prior art date
Application number
RU2021130115A
Other languages
Russian (ru)
Other versions
RU2021130115A (en
Inventor
Ле ЛУ
Синь Лю
Original Assignee
Долби Лабораторис Лайсэнзин Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Долби Лабораторис Лайсэнзин Корпорейшн filed Critical Долби Лабораторис Лайсэнзин Корпорейшн
Publication of RU2021130115A publication Critical patent/RU2021130115A/en
Application granted granted Critical
Publication of RU2807170C2 publication Critical patent/RU2807170C2/en

Links

Images

Abstract

FIELD: computer technology.
SUBSTANCE: invention relates to the extracting audio features in a dialogue detector in response to an input audio signal. The technical result consists in increasing the performance of extracting sound features when using several context windows, each of which contains a different number of frames to represent the frame in different contexts. The technical result is achieved by dividing the input audio signal into many frames; extracting frame audio features from each frame I; defining a set of context windows, where each context window contains a number of frames surrounding the current frame; deriving, for each context window, a corresponding contextual audio feature for the current frame based on the frame audio features of the frames in each corresponding context; performing concatenation on each contextual audio feature to form a combined feature vector to represent the current frame; and obtaining a speech confidence score representing the probability of dialogue occurring in the current frame using the combined feature vector, wherein the number of frames in one or more context windows is determined adaptively based on the extracted frame audio features.
EFFECT: increasing the performance of extracting sound features when using several context windows.
12 cl, 12 dwg

Description

Перекрестная ссылка на родственные заявкиCross reference to related applications

Настоящая заявка притязает на приоритет PCT заявки на патент № PCT/CN2019/083173, поданной 18 апреля 2019 года, предварительной заявки на патент США № 62/840,839, поданной 30 апреля 2019 года, и заявки на европейский патент № 19192553.6, поданной 20 августа 2019 года, каждая из которых ссылкой полностью включается в настоящий документ.This application claims PCT priority to Patent Application No. PCT/CN2019/083173 filed April 18, 2019, US Provisional Patent Application No. 62/840,839 filed April 30, 2019, and European Patent Application No. 19192553.6 filed August 20, 2019 years, each of which is incorporated by reference herein in its entirety.

Область техники, к которой относится изобретениеField of technology to which the invention relates

Настоящее изобретение относится в общем к обработке звуковых сигналов, и в частности к детектору диалогов.The present invention relates generally to audio signal processing, and in particular to a dialogue detector.

Предпосылки изобретенияBACKGROUND OF THE INVENTION

Детектор диалогов – это ключевой компонент во многих алгоритмах обработки звуковых сигналов, таких как усиление диалога, шумоподавление и измеритель громкости. Как правило, в существующем детекторе диалогов входной звуковой сигнал вначале в компоненте предварительной обработки преобразуется в однородный формат посредством преобразования частоты дискретизации или понижающего микширования и т. д. Например, в качестве предварительной обработки, входной звуковой сигнал может быть подвергнут понижающему микшированию в монофонический звуковой сигнал. Затем обработанный звуковой сигнал разбивают на кратковременные кадры и из контекстного окна, включающего фиксированное количество кадров, извлекают звуковые признаки для описания характеристик каждого кадра. Затем применяется классификатор, построенный с использованием методов машинного обучения, для автоматического придания звуковым признакам показателя достоверности, представляющего вероятность наличия диалога. Наконец, для устранения или сглаживания нежелательной флуктуации полученных показателей достоверности может применяться постобработка, например медианный или средний фильтр. В случае если показатель достоверности высокий, сигнал будет классифицирован как диалог. Тогда сигнал диалога может быть отправлен в устройство улучшения звука, такое как устройство усиления диалога.The dialogue detector is a key component in many audio signal processing algorithms, such as dialogue enhancement, noise reduction, and loudness metering. Typically, in an existing dialogue detector, the input audio signal is first converted into a uniform format in a pre-processing component through sample rate conversion or down-mixing, etc. For example, as pre-processing, the input audio signal may be down-mixed into a mono audio signal . Then the processed audio signal is divided into short-term frames and audio features are extracted from a context window, which includes a fixed number of frames, to describe the characteristics of each frame. A classifier built using machine learning techniques is then used to automatically assign the audio features a confidence score representing the likelihood of dialogue occurring. Finally, post-processing, such as a median or mean filter, can be used to remove or smooth out unwanted fluctuations in the resulting confidence scores. If the confidence score is high, the signal will be classified as a dialogue. The dialogue signal may then be sent to an audio enhancement device such as a dialogue enhancer.

Краткое описание изобретенияBrief description of the invention

Первый аспект настоящего изобретения относится к способу извлечения звуковых признаков в детекторе диалогов в ответ на входной звуковой сигнал, способ включает разделение входного звукового сигнала на множество кадров, извлечение кадровых звуковых признаков из каждого кадра, определение набора контекстных окон, где каждое контекстное окно содержит некоторое количество кадров, окружающих текущий кадр, выведение для каждого контекстного окна соответствующего контекстного звукового признака для текущего кадра на основании кадровых звуковых признаков кадров в каждом соответствующем контексте и выполнение конкатенации над каждым контекстным звуковым признаком с формированием комбинированного вектора признаков для представления текущего кадра.A first aspect of the present invention relates to a method for extracting audio features in a dialogue detector in response to an input audio signal, the method comprising dividing the input audio signal into a plurality of frames, extracting frame audio features from each frame, defining a set of context windows, where each context window contains a number of frames surrounding the current frame, deriving for each context window a corresponding contextual audio feature for the current frame based on the frame audio features of the frames in each corresponding context, and performing concatenation on each contextual audio feature to form a combined feature vector to represent the current frame.

Таким образом, в настоящем изобретении предлагается использование нескольких контекстных окон, каждое из которых содержит разное количество кадров, для представления кадра в разных контекстах, причем контекстные окна разной длины будут играть разные роли в представлении звукового свойства целевого кадра. Контекстные окна разной длины могут улучшать скорость реагирования и улучшать надежность. С этой целью в соответствии с настоящим изобретением вводится новый процесс – определение комбинированного временного контекста – для определения множества, например трех, контекстных окон разной длины или диапазона, например кратковременного контекста, средневременного контекста и долговременного контекста; затем звуковые признаки в контекстах извлекают в компоненте для извлечения звуковых признаков.Thus, the present invention proposes the use of multiple context windows, each containing a different number of frames, to represent a frame in different contexts, where context windows of different lengths will play different roles in representing the audio property of the target frame. Context windows of varying lengths can improve responsiveness and improve reliability. To this end, the present invention introduces a new process, combined temporal context determination, for determining multiple, eg three, context windows of different lengths or ranges, eg short-term context, medium-temporal context and long-term context; then the audio features in the contexts are extracted in the audio feature extraction component.

В некоторых вариантах осуществления компонент для извлечения кадровых признаков извлекает кадровые звуковые признаки (т. е. звуковые признаки кадра) из каждого из множества кадров, выделенных из входного звукового сигнала, а компонент для определения комбинированного временного контекста определяет длину или диапазон каждого контекстного окна. Затем соответствующий контекстный звуковой признак выводят на основании кадровых звуковых признаков в каждом определенном контексте. Каждый контекстный звуковой признак затем подвергают конкатенации и формируют комбинированный вектор признаков для представления текущего кадра.In some embodiments, the frame feature extractor component extracts frame audio features (i.e., frame audio features) from each of a plurality of frames extracted from the input audio signal, and the combined temporal context determines the length or range of each context window. Then, the corresponding contextual audio feature is derived based on the frame audio features in each determined context. Each contextual audio feature is then concatenated to form a combined feature vector to represent the current frame.

В некоторых вариантах осуществления контекстные окна содержат кратковременный контекст, средневременный контекст и долговременный контекст. Кратковременный контекст представляет локальную информацию вокруг текущего кадра. Средневременный контекст дополнительно содержит множество кадров ретроспективного просмотра. Долговременный контекст дополнительно содержит множество кадров долговременной истории.In some embodiments, context windows include short-term context, medium-term context, and long-term context. Short-term context represents local information around the current frame. The mid-temporal context further contains many flashback frames. The long-term context further contains many long-term history frames.

В некоторых вариантах осуществления длину или диапазон одного или более контекстов (т. е. количество кадров в соответствующих контекстных окнах) могут определять предварительно. Например, если доступен буфер опережающего просмотра, кратковременный контекст может содержать текущий кадр и кадры опережающего просмотра. Средневременный контекст может содержать текущий кадр, кадры опережающего просмотра и кадры ретроспективного просмотра. Долговременный контекст может содержать текущий кадр, кадры опережающего просмотра, кадры ретроспективного просмотра и кадры долговременной истории. В одном варианте осуществления длина или диапазон кадров опережающего просмотра могут предварительно определять размером до 23 кадров, а длину или диапазон кадров ретроспективного просмотра могут предварительно определять размером до 24 кадров, а также длину или диапазон кадров долговременной истории могут предварительно определяться размером от 48 до 96 кадров. В другом примере, если буфер опережающего просмотра недоступен, кратковременный контекст может содержать текущий кадр и первую часть кадров ретроспективного просмотра. Средневременный контекст может содержать текущий кадр, первую часть кадров ретроспективного просмотра и вторую часть кадров ретроспективного просмотра. Долговременный контекст может содержать текущий кадр, первую часть кадров ретроспективного просмотра, вторую часть кадров ретроспективного просмотра и кадры долговременной истории. Следовательно, длину или диапазон первой части кадров ретроспективного просмотра могут предварительно определять размером до 23 кадров, и длину или диапазон второй части кадров ретроспективного просмотра могут предварительно определять размером до 24 кадров, а также длину или диапазон кадров долговременной истории могут предварительно определять размером от 48 до 96 кадров.In some embodiments, the length or range of one or more contexts (i.e., the number of frames in the respective context windows) may be predetermined. For example, if a lookahead buffer is available, the short-lived context may contain the current frame and the lookahead frames. The mid-temporal context may contain the current frame, look-ahead frames, and look-ahead frames. A long-term context can contain the current frame, lookahead frames, lookahead frames, and long-term history frames. In one embodiment, the length or range of lookahead frames may be predefined by up to 23 frames, and the length or range of lookahead frames may be predefined by up to 24 frames, and the length or range of long-term history frames may be predefined by 48 to 96 frames. . In another example, if the lookahead buffer is not available, the short-term context may contain the current frame and the first part of the lookahead frames. The medium-temporal context may comprise a current frame, a first portion of flashback frames, and a second portion of flashback frames. The long-term context may contain the current frame, a first portion of flashback frames, a second portion of flashback frames, and long-term history frames. Therefore, the length or range of the first portion of the flashback frames may be predetermined by a size of up to 23 frames, and the length or range of the second portion of the flashback frames may be predetermined by a size of up to 24 frames, and the length or range of long-term history frames may be predetermined by a size of 48 to 96 frames.

В некоторых вариантах осуществления длину или диапазон одного или более контекстов могут определять адаптивно путем анализа стационарности признака кадрового уровня. Например, адаптивное определение основано на информации, относящейся к амплитуде входного звукового сигнала. В частности, один из способов адаптивного определения длины или диапазона кратковременного контекста основан на обнаружении мощного начала или перехода. В другом примере адаптивное определение основано на информации, относящейся к спектру входного звукового сигнала. В частности, один из способов адаптивного определения длины или диапазона кратковременного контекста основан на идентификации наибольшей спектральной несогласованности с использованием байесовских информационных критериев. Кроме того, в реализациях адаптивного определения кратковременный контекст может распространяться в направлениях как опережающего просмотра, так и ретроспективного просмотра, или распространяться только в одном направлении. В некоторых вариантах осуществления длину или диапазон контекстов могут предварительно определять в комбинации с адаптивным определением.In some embodiments, the length or range of one or more contexts may be determined adaptively by analyzing the stationarity of a frame-level feature. For example, adaptive detection is based on information related to the amplitude of the input audio signal. In particular, one method for adaptively determining the length or range of a short-term context is based on detecting a strong onset or transition. In another example, the adaptive determination is based on information related to the spectrum of the input audio signal. In particular, one method for adaptively determining the length or range of short-term context is based on identifying the largest spectral mismatch using Bayesian information criteria. Additionally, in adaptive detection implementations, short-term context may propagate in both the lookahead and lookahead directions, or propagate in only one direction. In some embodiments, the length or range of contexts may be predetermined in combination with adaptive determination.

В дополнение в настоящем изобретении предлагается способ предварительной очистки для устранения некоррелируемых помех в сигнале с целью повышения точности обнаружения в диалоге с низким отношением сигнал/шум. С этой целью в настоящем изобретении используют понижающее микширование с зависимыми от времени и частоты коэффициентами усиления с большим упором на коррелированный сигнал.In addition, the present invention provides a pre-cleaning method for eliminating uncorrelated signal noise to improve detection accuracy in a low signal-to-noise ratio conversation. To this end, the present invention uses downmixing with time- and frequency-dependent gains, with greater emphasis on the correlated signal.

В некоторых вариантах осуществления входной звуковой сигнал сначала разделяют на множество кадров, а затем кадры в левом канале и правом канале преобразуют в спектральное представление кадров. Некоррелированные сигналы в левом канале и правом канале удаляют путем применения частотно-зависимых коэффициентов усиления к спектру в левом канале и правом канале соответственно, чтобы получать сигнал после понижающего микширования. В некоторых вариантах осуществления частотно-зависимые коэффициенты усиления могут вычислять из ковариационной матрицы.In some embodiments, the input audio signal is first divided into a plurality of frames, and then the frames in the left channel and the right channel are converted into a spectral representation of the frames. Uncorrelated signals in the left channel and right channel are removed by applying frequency-dependent gains to the spectrum in the left channel and right channel, respectively, to obtain the signal after downmixing. In some embodiments, frequency-dependent gains may be calculated from the covariance matrix.

Кроме того, в настоящем изобретении предусмотрен детектор музыкального содержимого так, что как показатель достоверности музыки, так и показатель достоверности речи можно совместно учитывать для коррекции исходного показателя достоверности диалога и получения окончательного откорректированного показателя достоверности диалога, чтобы значительно уменьшать ложные срабатывания в музыке.In addition, the present invention provides a music content detector such that both the music fidelity score and the speech fidelity score can be jointly considered to correct the original dialogue fidelity score and obtain the final adjusted dialogue fidelity score to significantly reduce false positives in music.

В некоторых вариантах осуществления детектор речевого содержимого принимает признаки, извлеченные с использованием контекстных окон, а затем детектор речевого содержимого определяет показатель достоверности речи. Затем детектор музыкального содержимого принимает признаки, извлеченные с использованием контекстных окон, а затем детектор музыкального содержимого определяет показатель достоверности музыки. Показатель достоверности речи и показатель достоверности музыки комбинируют для получения окончательного показателя достоверности диалога. В некоторых вариантах осуществления окончательный показатель достоверности диалога могут уточнять посредством контекстно-зависимого параметра, который могут вычислять на основании доли кадров, идентифицированных как речь или музыка в историческом контексте. В некоторых вариантах осуществления исторический контекст может иметь продолжительность десять секунд или более.In some embodiments, the speech content detector receives features extracted using context windows, and then the speech content detector determines a speech confidence score. Then the music content detector takes the features extracted using context windows, and then the music content detector determines the music confidence score. The speech fidelity score and the music fidelity score are combined to produce a final dialogue fidelity score. In some embodiments, the final dialogue fidelity score may be refined through a context-sensitive parameter, which may be calculated based on the proportion of frames identified as speech or music in the historical context. In some embodiments, the historical context may be ten seconds or more in duration.

Краткое описание графических материаловBrief description of graphic materials

Прилагаемые фигуры даны в целях иллюстрации и служат лишь для представления примеров возможных операций для раскрытых новаторских способов, системы и машиночитаемого носителя. Эти фигуры никоим образом не ограничивают любые изменения формы и деталей, которые может внести специалист в данной области техники в пределах сущности и объема раскрытых вариантов осуществления.The accompanying figures are for illustrative purposes and serve only to present examples of possible operations for the disclosed innovative methods, system, and computer-readable media. These figures are in no way intended to limit any changes in form and detail that may be made by one skilled in the art within the spirit and scope of the disclosed embodiments.

Фиг. 1 представляет собой структурную схему детектора 100 диалогов, содержащего компонент 104 определения комбинированного временного контекста в соответствии с некоторыми вариантами осуществления.Fig. 1 is a block diagram of a conversation detector 100 including a combined temporal context determination component 104 in accordance with some embodiments.

Фиг. 2 представляет собой структурную схему компонента 102 для извлечения звуковых признаков в детекторе 100 диалогов в соответствии с некоторыми вариантами осуществления.Fig. 2 is a block diagram of a component 102 for extracting audio features in a dialogue detector 100 in accordance with some embodiments.

Фиг. 3 представляет собой блок-схему способа 200 в соответствии с некоторыми вариантами осуществления для предварительного определения длины или диапазона комбинированного временного контекста с использованием компонента 104 определения комбинированного временного контекста.Fig. 3 is a flow diagram of a method 200 in accordance with some embodiments for pre-determining the length or range of a combined temporal context using the combined temporal context determination component 104.

Фиг. 4a представляет собой пример предварительно определенной длины или диапазона комбинированного временного контекста, если доступен буфер опережающего просмотра, в соответствии с некоторыми вариантами осуществления.Fig. 4a is an example of a predetermined length or range of a combined temporal context if a lookahead buffer is available, in accordance with some embodiments.

Фиг. 4b представляет собой пример предварительно определенной длины или диапазона комбинированного временного контекста, если буфер опережающего просмотра недоступен, в соответствии с некоторыми вариантами осуществления.Fig. 4b is an example of a predetermined length or range of a combined temporal context if the lookahead buffer is not available, in accordance with some embodiments.

Фиг. 5a представляет собой блок-схему примера способа 300 в соответствии с некоторыми вариантами осуществления для адаптивного определения длины или диапазона комбинированного временного контекста с использованием компонента 104 определения комбинированного временного контекста.Fig. 5a is a flow diagram of an example method 300, in accordance with some embodiments, for adaptively determining the length or range of a combined temporal context using the combined temporal context determining component 104.

Фиг. 5b представляет собой схематический вид способа 300, проиллюстрированного в диапазоне поиска границ контекста.Fig. 5b is a schematic view of a method 300 illustrated in a context boundary search range.

Фиг. 6a представляет собой блок-схему другого примера способа 400 в соответствии с некоторыми вариантами осуществления для адаптивного определения длины или диапазона комбинированного временного контекста с использованием компонента 104 определения комбинированного временного контекста.Fig. 6a is a flow diagram of another example of a method 400, in accordance with some embodiments, for adaptively determining the length or range of a combined temporal context using the combined temporal context determining component 104.

Фиг. 6b представляет собой схематический вид способа 400, проиллюстрированного в окне байесовских информационных критериев.Fig. 6b is a schematic view of the method 400 illustrated in the Bayesian Information Criteria window.

На фиг. 7 показан пример адаптивно определенной длины или диапазона комбинированного временного контекста, если доступен буфер опережающего просмотра, в соответствии с некоторыми вариантами осуществления.In fig. 7 illustrates an example of an adaptively determined length or range of a combined temporal context if a lookahead buffer is available, in accordance with some embodiments.

Фиг. 8 представляет собой блок-схему примера способа 500 понижающего микширования входного звукового сигнала детектора диалогов, который выполняют в соответствии с некоторыми вариантами осуществления.Fig. 8 is a flow diagram of an example method 500 of downmixing a dialogue detector input audio signal that is performed in accordance with some embodiments.

Фиг. 9 представляет собой структурную схему детектора 600 диалогов, дополнительно содержащего детектор 606 музыкального содержимого, в соответствии с некоторыми вариантами осуществления.Fig. 9 is a block diagram of a dialogue detector 600, further including a music content detector 606, in accordance with some embodiments.

Подробное описаниеDetailed description

Как уже отмечалось, в обычном известном детекторе диалогов каждый кадр представлен контекстом, а именно окном, содержащим ряд кадров (например, 32 или 48 кадров), и классифицируется по звуковым признакам, извлеченным из кадров в этом контекстном окне. Однако проблема, связанная с этим обычным детектором диалогов, заключается в том, что он иногда может вносить в обнаружение большую задержку, поскольку детектор может определять, присутствует ли диалог, только после идентификации нескольких кадров диалога, что может отрицательно сказываться на применении в реальном времени. Кроме того, он не может извлекать более надежные ритмические признаки, которые могут способствовать распознаванию речи из поющего голоса или речитатива, и, соответственно, это может отрицательно сказываться на надежности обнаружения диалога.As noted, in a conventional conventional conversation detector, each frame is represented by a context, namely a window containing a number of frames (eg, 32 or 48 frames), and is classified by audio features extracted from the frames in that context window. However, a problem with this conventional dialogue detector is that it can sometimes introduce a large delay in detection since the detector can only determine whether dialogue is present after identifying several frames of dialogue, which can be detrimental to real-time applications. In addition, it cannot extract more reliable rhythmic features that can contribute to speech recognition from singing voices or recitatives, and consequently, this may have a negative impact on the reliability of dialogue detection.

Для решения этих проблем в настоящем изобретении предлагаются методы, предусматривающие использование набора контекстных окон разной длины для представления кадра в нескольких масштабах, причем контекстные окна разной длины будут играть разные роли в представлении звукового свойства целевого кадра. Далее приводится описание некоторых примеров способов, систем и машиночитаемого носителя, реализующих эти методы для извлечения звукового признака детектора диалогов с учетом входного звукового сигнала.To solve these problems, the present invention proposes methods that use a set of context windows of different lengths to represent a frame at multiple scales, where context windows of different lengths will play different roles in representing the audio property of the target frame. The following is a description of some examples of methods, systems, and computer-readable media that implement these methods for extracting an audio feature of a dialogue detector given an input audio signal.

Фиг. 1 представляет собой структурную схему детектора 100 диалогов, содержащего компонент 104 определения окна комбинированного временного контекста в соответствии с некоторыми вариантами осуществления. На фиг. 1 компонент 102 предварительной обработки принимает входной звуковой сигнал. В компоненте 102 предварительной обработки входной звуковой сигнал может быть подвергнут понижающему микшированию в монофонический звуковой сигнал. Затем его разбивают на кадры. Затем компонент 104 определения комбинированного временного контекста и компонент 106 извлечения звуковых признаков принимают кадры из компонента 102 предварительной обработки соответственно. Затем из каждого кадра в компоненте 106 извлечения звуковых признаков извлекают кадровые звуковые признаки. Кроме того, в компоненте 104 определения комбинированного временного контекста определяют длину или диапазон каждого контекстного окна. Затем компонент 106 извлечения звуковых признаков принимает результат определения из компонента 104 комбинированного временного определения. Затем в компоненте 106 извлечения звуковых признаков кадровые звуковые признаки в каждом контекстном окне используют для выведения каждого контекстного признака в зависимости от определенного контекстного окна. Каждый набор контекстных признаков затем подвергают конкатенации или комбинируют и формируют совместный вектор признаков. Затем классификатор 108 принимает вектор извлеченных признаков из компонента 106 извлечения звуковых признаков. В классификаторе 108 получают показатель достоверности, представляющий вероятность наличия диалога. Наконец, в компоненте 110 постобработки полученные показатели достоверности могут сглаживаться, например, медианным или средним фильтром, для устранения их нежелательной флуктуации.Fig. 1 is a block diagram of a dialog detector 100 including a combined time context window determination component 104 in accordance with some embodiments. In fig. 1, the pre-processing component 102 receives an input audio signal. At pre-processing component 102, the input audio signal may be downmixed into a monaural audio signal. It is then broken down into frames. Then, the combined temporal context determination component 104 and the audio feature extraction component 106 receive frames from the preprocessing component 102, respectively. Frame audio features are then extracted from each frame in the audio feature extraction component 106. In addition, in the combined time context definition component 104, the length or range of each context window is determined. Then, the audio feature extraction component 106 receives the determination result from the combined temporal determination component 104. Then, in the audio feature extraction component 106, the frame audio features in each context window are used to derive each context feature depending on the specific context window. Each set of contextual features is then concatenated or combined to form a joint feature vector. The classifier 108 then receives the vector of extracted features from the audio feature extraction component 106 . At classifier 108, a confidence score representing the probability of having a conversation is obtained. Finally, in post-processing component 110, the resulting confidence scores may be smoothed, for example, by a median or mean filter, to remove unwanted fluctuations therein.

Фиг. 2 представляет структурную схему компонента 106 извлечения звуковых признаков в детекторе 100 диалогов в соответствии с некоторыми вариантами осуществления. В частности, на этой фигуре описываются извлечение и комбинирование признаков комбинированного временного контекста. На фиг. 2 в компоненте 106 извлечения звуковых признаков из каждого принятого кадра извлекают кадровые звуковые признаки посредством компонента 1060 для извлечения кадровых признаков. Затем в компоненте 104 определения комбинированного временного контекста определяют длину или диапазон каждого контекстного окна, в данном случае кратковременного контекстного окна, средневременного контекстного окна и долговременного контекстного окна. Затем на основании кадровых звуковых признаков в кратковременном контекстном окне, средневременном контекстном окне и долговременном контекстном окне выводят соответственно кратковременный контекстный звуковой признак, средневременный контекстный звуковой признак и долговременный контекстный звуковой признак. Наконец, эти три набора контекстных признаков подвергают конкатенации и формируют вектор признаков большой размерности. Например, если, предположим, каждый контекстный признак является 100-мерным, то полученный конкатенацией признак будет 300-мерным.Fig. 2 is a block diagram of an audio feature extraction component 106 in a dialogue detector 100 in accordance with some embodiments. In particular, this figure describes the extraction and combination of features of a combined temporal context. In fig. 2, in the audio feature extractor component 106, frame audio features are extracted from each received frame by the frame feature extractor component 1060. The combined temporal context definition component 104 then determines the length or range of each context window, in this case the short-term context window, the medium-temporal context window, and the long-term context window. Then, based on the frame audio features in the short-term context window, the medium-time context window, and the long-term context window, the short-term context audio feature, the mid-temporal context audio feature, and the long-term context audio feature are output respectively. Finally, these three sets of contextual features are concatenated to form a high-dimensional feature vector. For example, if, suppose, each contextual feature is 100-dimensional, then the resulting feature by concatenation will be 300-dimensional.

Следовательно, вместо представления текущего кадра одним контекстным окном в настоящем изобретении предлагается использование нескольких контекстных окон. В одном варианте осуществления для представления текущего кадра используются три контекстных окна, а именно: кратковременное контекстное окно, средневременное контекстное окно и долговременное контекстное окно разной длины или диапазона. В частности, кратковременный контекст представляет локальную информацию вокруг целевого кадра, чтобы при появлении диалога детектор мог быстрее отреагировать. Средневременный контекст – это элемент, используемый в существующем детекторе, поскольку он может обеспечить соответствующий временной интервал для анализа звукового содержимого. Долговременное контекстное окно представляет более глобальную информацию, в которой извлекаются лишь ритмические признаки, поскольку кратковременный контекст или средневременное контекстное окно, как правило, не являются достаточно долгими для того, чтобы можно было извлечь надежные ритмические признаки. То есть в настоящем изобретении предлагается добавление кратковременного контекстного окна для повышения быстродействия и долговременного контекста для повышения надежности. Таким образом, длину этих трех контекстных окон следует определять при извлечении признаков. С этой целью в настоящем изобретении предлагается компонент комбинированного временного определения для определения длины кратковременного контекстного окна, средневременного контекстного окна и долговременного контекстного окна.Therefore, instead of representing the current frame with a single context window, the present invention proposes the use of multiple context windows. In one embodiment, three context windows are used to represent the current frame, namely a short-term context window, a medium-term context window, and a long-term context window of varying lengths or ranges. In particular, short-term context represents local information around the target frame so that when dialogue appears, the detector can respond faster. Medium-temporal context is an element used in the existing detector because it can provide an appropriate time interval for analyzing audio content. The long-term context window represents more global information in which only rhythmic features are extracted, since the short-term context or medium-term context window is typically not long enough to allow reliable rhythmic features to be extracted. That is, the present invention proposes adding a short-term context window to improve performance and a long-term context to improve reliability. Therefore, the length of these three context windows should be determined when extracting features. To this end, the present invention provides a combined timing component for determining the length of a short-term context window, a medium-term context window, and a long-term context window.

В одном примере кадровый звуковой признак может содержать по меньшей мере один из признаков поддиапазона или признаков полного диапазона. Примеры признаков поддиапазона включают: спектральное распределение энергии поддиапазона, спектральный контраст поддиапазона, частичный выброс поддиапазона, коэффициенты косинусного преобразования Фурье для частот чистых тонов (MFCC), MFCC-поток и энергия нижних частот. Примеры признаков полного диапазона включают: спектральный поток, спектральная остаточная и кратковременная энергия. In one example, the frame audio feature may comprise at least one of sub-band features or full-band features. Examples of subband features include: subband spectral energy distribution, subband spectral contrast, subband partial overshoot, pure tone Fourier cosine transform coefficients (MFCC), MFCC flux, and low pass energy. Examples of full range features include: spectral flux, spectral residual, and short-term energy.

В одном примере контекстный звуковой признак может быть выведен из одного или более кадровых звуковых признаков. Например, контекстный звуковой признак может включать статистику кадровых звуковых признаков, такую как среднее, мода, медиана, дисперсия или стандартное отклонение.In one example, a contextual audio feature may be derived from one or more frame audio features. For example, the contextual audio feature may include frame audio feature statistics such as mean, mode, median, variance, or standard deviation.

Дополнительно или альтернативно контекстный звуковой признак может включать признак, связанный с ритмом, такой как признак 2D модуляции, мощность ритма, чистота ритма, регулярность ритма, средний темп и/или корреляция на уровне окна (т. е. корреляция на уровне контекста).Additionally or alternatively, the contextual audio feature may include a rhythm-related feature, such as a 2D modulation feature, rhythm power, rhythm purity, rhythm regularity, average tempo, and/or window-level correlation (i.e., context-level correlation).

Вышеприведенные примеры кадровых звуковых признаков и контекстных звуковых признаков не являются исчерпывающими, и вместо перечисленных признаков или в дополнение к ним могут использоваться различные другие кадровые звуковые признаки и контекстные звуковые признаки.The above examples of frame audio features and contextual audio features are not exhaustive, and various other frame audio features and contextual audio features may be used instead of or in addition to the above features.

Фиг. 3 представляет собой блок-схему способа 200 в соответствии с некоторыми вариантами осуществления для предварительного определения длины или диапазона комбинированного временного контекста с использованием компонента 104 определения комбинированного временного контекста. В этом примерном варианте осуществления длина или диапазон комбинированных временных контекстов могут быть определены предварительно. В одном примере, если доступен буфер опережающего просмотра, на этапе 202 могут определять, что кратковременный контекст содержит лишь текущий кадр и несколько кадров опережающего просмотра, причем длину или диапазон кадров опережающего просмотра могут предварительно определять как 23 кадра, таким образом, общая длина или диапазон кратковременного контекста составляет 24 кадра, так чтобы анализировать самое последнее поступающее содержимое. На этапе 204 могут определять, что средневременный контекст содержит текущий кадр, несколько кадров опережающего просмотра и несколько кадров ретроспективного просмотра, причем длину или диапазон кадров ретроспективного просмотра могут предварительно определять как 24 кадра, таким образом, общая длина или диапазон средневременного контекста составляет 48 кадров. Затем на этапе 206 могут определять, что долговременный контекст содержит текущий кадр, несколько кадров опережающего просмотра, несколько кадров ретроспективного просмотра и еще кадры истории, причем длину или диапазон кадров долговременной истории могут предварительно определять как 48–96 кадров; таким образом, общая длина или диапазон долговременного контекста составляет от 96 до 144 кадров, так чтобы иметь анализ стабильных ритмических признаков. На фиг. 4a показан этот пример предварительно определенной длины или диапазона комбинированного временного контекста. В другом примере, если буфер опережающего просмотра отсутствует, на этапе 208 могут определять, что кратковременный контекст содержит лишь текущий кадр и часть кадров ретроспективного просмотра, причем длину или диапазон части кадров ретроспективного просмотра могут предварительно определять как 23 кадра, таким образом, общая длина или диапазон кратковременного контекста составляет 24 кадра. На этапе 210 могут определять, что средневременный контекст содержит текущий кадр, часть кадров ретроспективного просмотра и дополнительные кадры ретроспективного просмотра, причем длину или диапазон дополнительных кадров ретроспективного просмотра могут предварительно определять как 24 кадра, таким образом, общая длина или диапазон средневременного контекста составляет 48 кадров. Затем на этапе 212 могут определять, что долговременный контекст содержит текущий кадр, часть кадров ретроспективного просмотра, дополнительные кадры ретроспективного просмотра и еще кадры истории, причем длину или диапазон кадров долговременной истории могут предварительно определить как 48–96 кадров; таким образом, общая длина или диапазон долговременного контекста составляет от 96 до 144 кадров. На фиг. 4b показан этот пример предварительно определенной длины или диапазона комбинированного временного контекста. В способе 200 длина или диапазон буфера опережающего просмотра, буфера ретроспективного просмотра и долговременной истории все могут быть предварительно определены. Альтернативно, помимо вышеуказанного числа кадров, могут использовать и другое число кадров, пока оно обеспечивает, что кратковременный контекст содержит лишь кадры со свойством, подобным текущему кадру, а долговременный контекст содержит достаточно кадров истории для извлечения надежных ритмических признаков.Fig. 3 is a flow diagram of a method 200, in accordance with some embodiments, for pre-determining the length or range of a combined time context using the combined time context determination component 104. In this exemplary embodiment, the length or range of the combined time contexts may be predetermined. In one example, if a lookahead buffer is available, at step 202 it may be determined that the short-term context contains only the current frame and a few lookahead frames, and the length or range of the lookahead frames may be predetermined to be 23 frames, thus the total length or range short-term context is 24 frames, so that the most recent incoming content can be analyzed. At step 204, the medium-temporal context may be determined to include a current frame, several lookahead frames, and several look-ahead frames, and the length or range of the flashback frames may be predetermined to be 24 frames, such that the total length or range of the medium-temporal context is 48 frames. The long-term context may then be determined at 206 to include a current frame, several lookahead frames, some look-ahead frames, and more history frames, wherein the length or range of the long-term history frames may be predetermined to be 48-96 frames; thus, the total length or range of long-term context is from 96 to 144 frames, so as to have an analysis of stable rhythmic features. In fig. 4a shows this example of a predetermined length or range of a combined temporal context. In another example, if there is no lookahead buffer, the short-term context may be determined at step 208 to contain only the current frame and a portion of the flashback frames, and the length or range of the portion of the flashback frames may be predetermined to be 23 frames, thus the total length or The short-term context range is 24 frames. At step 210, the medium-temporal context may be determined to include the current frame, a portion of the flashback frames, and additional flashback frames, wherein the length or range of the additional flashback frames may be predetermined to be 24 frames, such that the total length or range of the medium-temporal context is 48 frames. . The long-term context may then be determined at 212 to include the current frame, a portion of the flashback frames, additional flashback frames, and more history frames, wherein the length or range of the long-term history frames may be predetermined to be 48-96 frames; thus, the total length or range of the long-term context is from 96 to 144 frames. In fig. 4b shows this example of a predetermined length or range of a combined temporal context. In method 200, the length or range of the lookahead buffer, lookahead buffer, and long-term history can all be predetermined. Alternatively, a different number of frames may be used in addition to the above number of frames, as long as it ensures that the short-term context contains only frames with a property similar to the current frame, and the long-term context contains enough history frames to extract reliable rhythmic features.

Альтернативно длину или диапазон одного или более контекстных окон могут адаптивно определять в компоненте 104 определения комбинированного временного контекста путем анализа стационарности признаков уровня кадра и соответственного группирования звуковых кадров. Фиг. 5a представляет блок-схему примера способа 300 в соответствии с некоторыми вариантами осуществления для адаптивного определения длины или диапазона окна комбинированного временного контекста с использованием компонента 104 определения комбинированного временного контекста. В частности, в качестве примера для описания способа 300 берется кратковременный контекст. Способ 300 основан на обнаружении мощного переходного процесса. Вначале на этапе 302 рассчитывают кратковременную энергию кадра k по следующей формуле (1):Alternatively, the length or range of one or more context windows may be adaptively determined in the combined temporal context determination component 104 by analyzing the stationarity of frame-level features and grouping audio frames accordingly. Fig. 5a is a flow diagram of an example method 300, in accordance with some embodiments, for adaptively determining the length or range of a combined time context window using the combined time context determination component 104. In particular, short-term context is taken as an example to describe the method 300. Method 300 is based on power transient detection. First, at step 302, the short-term energy is calculated frame k according to the following formula (1):

Здесь [xk,0, …, xk, N-1] представляют PCM-выборки кадра k. Перед вычислением энергии выборки могут также быть обработаны методом окна / взвешены, и энергию могут выводить из сигнала либо полного диапазона, либо поддиапазона.Here [x k,0 , …, x k, N-1 ] represent PCM samples of frame k. Before energy is calculated, samples can also be windowed/weighted and energy can be derived from either the full range or sub-range signal.

Затем на этапе 304 энергию кадра асимметрично сглаживают с коэффициентом ускоренного продвижения при повышении энергии и медленным затуханием при уменьшении энергии, как представлено в формуле (2):Then at step 304 the energy The frame is asymmetrically smoothed with a fast advance rate as energy increases and a slow decay rate as energy decreases, as presented in formula (2):

где – сглаженная кратковременная энергия в k-м звуковом кадре. Параметр α является коэффициентом сглаживания.Where – smoothed short-term energy in kth sound frame. The parameter α is the smoothing coefficient.

Затем на этапе 306 на огибающей сглаженной энергии применяют разностный фильтр, и значения, превышающие заданный порог δ, могут рассматривать как начало , как представлено в формуле (3): A difference filter is then applied to the smoothed energy envelope at step 306, and values greater than a predetermined threshold δ may be considered to be the beginning of , as presented in formula (3):

Затем на этапе 308 могут дополнительно нормировать средним значением кратковременной энергии в диапазоне поиска. Затем на любом из этапов 310, 312 или 314 могут определять границу для длины или диапазона кратковременного контекста. На этапе 310 положение с наибольшим берут как границу контекста. На этапе 312 пиковое выше некоторого порогового значения, например 0,3 (его могут настраивать между 0 и 1), могут брать как границу контекста. Вместо порогового значения на этапе 314 могут учитывать расстояние между и ранее идентифицированным мощным пиком. Иными словами, лишь в том случае, если он будет иметь определенную продолжительность, например одну секунду, от предыдущего мощного переходного процесса, его определят как мощный переходной процесс и выберут границей контекста. Кроме того, на этапе 314, если мощный переходной процесс в диапазоне поиска не обнаруживают, то используют полные кадры ретроспективного просмотра и/или кадры опережающего просмотра. Фиг. 5b представляет схематический вид способа 300, проиллюстрированного в диапазоне поиска границ контекста. В частности, она иллюстрирует исходную форму волны звуковых сигналов, кратковременную энергию, дифференциальную кратковременную энергию после нормирования и диапазон определенного кратковременного контекста.Then at step 308 can further be normalized by the average value of short-term energy in the search range. Then, at any one of steps 310, 312, or 314, a boundary for the length or range of the short-term context may be determined. At step 310, the position with the largest taken as the boundary of the context. At step 312 the peak above a certain threshold value, for example 0.3 (it can be adjusted between 0 and 1), can be taken as the context boundary. Instead of a threshold value, step 314 may consider the distance between and a previously identified strong peak. In other words, only if it has a certain duration, for example one second, from the previous strong transient, will it be defined as a strong transient and selected as a context boundary. In addition, at step 314, if a strong transient is not detected in the search range, then full flashback frames and/or lookahead frames are used. Fig. 5b is a schematic view of a method 300 illustrated in a context boundary search range. In particular, it illustrates the original waveform of audio signals, short-term energy, differential short-term energy after normalization, and the range of a specific short-term context.

Вместо использования для определения диапазона контекста информации об амплитуде, адаптивное определение диапазона контекста может также быть основано на спектральной информации. Например, для определения диапазона контекста с использованием байесовских информационных критериев (BIC) могут находить наибольшую спектральную несогласованность. Фиг. 6a представляет способ 400 определения границ с использованием BIC. В качестве примера для описания способа 400 также берется кратковременный контекст. Сначала на этапе 402 предполагают, что временная метка t в окне BIC является истинной границей и что это окно лучше представить двумя отдельными моделями нормального распределения, разделенными в момент времени t. Затем на этапе 404 предполагают, что временная метка t в окне BIC не является истинной границей и что это окно лучше представить лишь одной моделью нормального распределения. Затем на этапе 406 рассчитывают дельта BIC по следующей формуле (4):Instead of using amplitude information to determine the context range, adaptive context range determination may also be based on spectral information. For example, to determine the context range, Bayesian Information Criteria (BIC) can be used to find the largest spectral inconsistency. Fig. 6a represents a method 400 for determining boundaries using a BIC. A short-term context is also taken as an example to describe the method 400. First, at step 402, it is assumed that timestamp t in the BIC window is the true boundary and that the window is better represented by two separate normal distribution models separated at time t. It is then assumed at step 404 that timestamp t in the BIC window is not a true boundary and that the window would be better represented by just one normal distribution model. Delta BIC is then calculated at step 406 using the following formula (4):

Здесь H 0 является гипотезой на этапе 402 и H 1 является гипотезой на этапе 404. На фиг. 6b показан пример кривой ΔBIC(t) в окне BIC, которая представляет собой разность логарифмического правдоподобия между двумя гипотезами. Затем на этапе 408 дельта BIC могут нормировать. Затем на этапе 410, если пик ΔBIC(t) больше порогового значения (его могут настраивать между 0 и 1), этот пик могут выбирать как наиболее возможное положение границы контекста.Here, H 0 is the hypothesis at step 402 and H 1 is the hypothesis at step 404. In FIG. Figure 6b shows an example of a ΔBIC(t) curve in the BIC window, which represents the log-likelihood difference between two hypotheses. The delta BIC may then be normalized at step 408. Then, at step 410, if the peak ΔBIC(t) is greater than a threshold value (which can be adjusted between 0 and 1), this peak can be selected as the best possible context boundary position.

На фиг. 7 показан пример адаптивного определения длины или диапазона окна комбинированного временного контекста, если доступен буфер опережающего просмотра, в соответствии с некоторыми вариантами осуществления. В частности, длина или диапазон кратковременного контекстного окна адаптивно определены способом 300 или способом 400, а длина или диапазон средневременного контекста и долговременного контекста предварительно определены способом 200. Как показано на фиг. 7, если доступен буфер опережающего просмотра, кратковременный контекст может распространяться как в направлении опережающего просмотра, так и в направлении ретроспективного просмотра. Альтернативно кратковременный контекст может распространяться только в одном направлении, например, если буфер опережающего просмотра отсутствует (не показано). В способе 300 или способе 400 в соответствии с настоящим изобретением как пример для описания адаптивного определения взят кратковременный контекст, однако длину или диапазон средневременного контекста также можно адаптивно определять методами, подобными описанным выше способам 300 или 400.In fig. 7 illustrates an example of adaptively determining the length or range of a combined temporal context window if a lookahead buffer is available, in accordance with some embodiments. Specifically, the length or range of the short-term context window is adaptively determined by the method 300 or the method 400, and the length or range of the medium-term context and long-term context is predetermined by the method 200. As shown in FIG. 7, if a lookahead buffer is available, the short-term context can propagate in both the lookahead and lookahead directions. Alternatively, the short-lived context may only propagate in one direction, for example if there is no lookahead buffer (not shown). Method 300 or method 400 of the present invention takes short-term context as an example to describe adaptive determination, but the length or range of medium-term context can also be adaptively determined by methods similar to methods 300 or 400 described above.

Как отмечено выше, современный детектор диалогов применяют для понижающего микширования в монофонический сигнал в каналах L/R для стереофонического сигнала или в каналах L/R/C для сигнала 5.1 с целью уменьшения сложности вычислений. Однако микширование всех каналов вместе может уменьшить отношение сигнал/шум диалога и снизить точность обнаружения диалога. Например, диалог с большими помехами (например, в спортивных играх) или диалог в сценах с интенсивным действием при обнаружении может быть упущен. Для решения этой проблемы применяется преобладающее понижающее микширование центрального канала, как представлено формулой (5), для уменьшения «смазывания» диалога, поскольку большая часть диалога находится в канале C в сигнале 5.1.As noted above, a modern dialogue detector is used to downmix to mono the L/R channels for a stereo signal or the L/R/C channels for a 5.1 signal to reduce computational complexity. However, mixing all channels together may reduce the dialogue signal-to-noise ratio and reduce dialogue detection accuracy. For example, dialogue with a lot of noise (such as in sports games) or dialogue in intense action scenes may be missed when detected. To solve this problem, a predominant center channel downmix is applied, as represented by formula (5), to reduce dialogue smearing, since most of the dialogue is in the C channel in a 5.1 signal.

Здесь C, L, R означают комплексный спектр для каждого временно-спектрального «тайла» (то есть для каждого кадра и каждого интервала/полосы) в центральном, левом и правом каналах соответственно, а g – параметр между 0 и 1 для уменьшения «вклада» из L и R каналов. Однако вышеуказанный способ работает на сигнале 5.1, но неприменим для стереофонического сигнала, поскольку диалог обычно рассматривается как панорамированный сигнал, а значит коррелированный в L и R, в стереофоническом сигнале. Here C, L, R mean the complex spectrum for each time-spectral “tile” (that is, for each frame and each interval/band) in the central, left and right channels respectively, and g is a parameter between 0 and 1 to reduce the “contribution » from L and R channels. However, the above method works on a 5.1 signal, but is not applicable to a stereo signal, since dialogue is usually treated as a panned signal, and therefore correlated in L and R, in a stereo signal.

Для решения этой проблемы в настоящем изобретении предлагается новый способ понижающего микширования для устранения некоррелированного шума в сигнале, чтобы сделать диалог более четко выраженным после понижающего микширования. Фиг. 8 представляет пример способа 500 понижающего микширования входного звукового сигнала детектора диалогов, который выполняют в соответствии с некоторыми вариантами осуществления. Сначала на этапе 502 входной звуковой сигнал разделяют на множество кадров. Затем на этапе 504 кадры в левом канале и правом канале преобразуют в спектральное представление кадров. Затем на этапе 506 некоррелированные сигналы устраняют по формуле (6) следующим образом:To solve this problem, the present invention proposes a new downmixing method for eliminating uncorrelated noise in a signal to make dialogue clearer after downmixing. Fig. 8 represents an example of a method 500 for downmixing a dialog detector audio input signal that is performed in accordance with some embodiments. First, at step 502, the input audio signal is divided into a plurality of frames. Next, at step 504, the frames in the left channel and the right channel are converted to a spectral representation of the frames. Then, at step 506, the uncorrelated signals are eliminated using formula (6) as follows:

Здесь L – спектральное представление кадров в левом канале, R – спектральное представление кадров в правом канале, а g 1 и g 2 представляют два частотно-зависимых коэффициента усиления, а не широкополосные коэффициенты усиления, применяемые к L и R соответственно. Для простоты характеристика полосы частот в формуле упущена. В одном варианте осуществления g 1 и g 2 могут быть вычислены из ковариационной матрицы, которую рассчитывают для каждой полосы в определенном промежутке времени (причем учитывают только реальную часть, а характеристику полосы частот также упускают), как представлено в формуле (7):Here L is the spectral representation of frames in the left channel, R is the spectral representation of frames in the right channel, and g 1 and g 2 represent two frequency-dependent gains rather than the wideband gains applied to L and R, respectively. For simplicity, the frequency band characteristic is omitted from the formula. In one embodiment, g 1 and g 2 can be calculated from the covariance matrix, which is calculated for each band in a certain period of time (and only the real part is taken into account, and the frequency response is also omitted), as presented in formula (7):

Затем после анализа собственных векторов и идеи выделения окружения в NGCS, g 1 и g 2 можно представить следующим образом.Then, after analyzing the eigenvectors and the idea of environment extraction in NGCS, g 1 and g 2 can be represented as follows.

Здесь a, c и d являются альтернативным представлением коэффициентов ковариации соответственно для упрощения представления формул (8) и (9). После этапа 506 на этапе 508 получают сигнал после понижающего микширования M. Here a, c and d are alternative representations of the covariance coefficients respectively, to simplify the presentation of formulas (8) and (9). After step 506, the downmixed signal M is obtained at step 508.

Хотя вышеупомянутый способ 500 описан и разработан на основании стереофонического сигнала, он мог бы быть применен и к сигналу 5.1. В одном варианте осуществления сигнал 5.1 может сначала быть преобразован в стереофонический сигнал (L c и R c ) с преобладающим понижающим микшированием центрального канала, как представлено в формулах (10) и (11):Although the above method 500 is described and developed based on a stereo signal, it could be applied to a 5.1 signal. In one embodiment , the 5.1 signal may first be converted to a stereo signal ( Lc and Rc ) with a dominant center channel downmix, as represented in formulas (10) and (11):

Затем L c и R c будут следовать способу 500 для устранения некоррелированного шума. L c and R c will then follow the method 500 to remove uncorrelated noise.

В дополнение к способу 500 устранения некоррелированного сигнала или вместо него также могут применяться и некоторые другие способы. В некоторых вариантах осуществления для снижения шума в центральном канале C с использованием (L+R)/2 как сигнала эталонного шума могут применять способ, подобный подавлению эхо-сигналов. Альтернативно могут строить спектральный базис НМР для либо диалога, либо как диалога, так и шума, и их могут применять для извлечения чистой диалоговой составляющей.In addition to or instead of the uncorrelated signal elimination method 500, certain other methods may also be used. In some embodiments, a technique similar to echo cancellation may be used to reduce noise in the center channel C using (L+R)/2 as the reference noise signal. Alternatively, the NMR spectral basis can be constructed for either dialogue or both dialogue and noise, and can be used to extract the pure dialogue component.

Кроме того, в современном детекторе музыкальный сигнал, особенно поющий голос в а капелла (без существенного инструментального сопровождения) или речитатив, имеющие много схожих свойств с диалогом, может ошибочно быть классифицирован как диалог, поэтому ложные срабатывания могут значительно возрасти. Заявитель установил, что показатель достоверности музыки также высок и для тех же ошибочно классифицированных кадров. Исходя из этого, параллельно детектору диалогов заявитель вводит классификатор музыки, чтобы показатель достоверности музыки мог использоваться как эталон для уточнения или корректировки исходного показателя достоверности диалога, чтобы значительно уменьшить ложные срабатывания в музыке. In addition, in a modern detector, a musical signal, especially a singing voice in a cappella (without significant instrumental accompaniment) or recitative, which has many similar properties to dialogue, can be incorrectly classified as dialogue, so false positives can increase significantly. The applicant found that the music confidence score was also high for the same misclassified frames. Based on this, in parallel with the dialogue detector, the applicant introduces a music classifier so that the music credibility score can be used as a reference to refine or adjust the original dialogue credibility score to significantly reduce false positives in music.

Фиг. 9 представляет собой структурную схему детектора 600 диалогов, дополнительно содержащего детектор 606 музыкального содержимого, в соответствии с некоторыми вариантами осуществления. Сначала входной звуковой сигнал разделяют на множество кадров и преобразуют в спектральное представление с помощью дискретного преобразования Фурье (ДПФ) 602. Затем в компоненте 604 извлечения признаков извлекают признаки для представления каждого кадра согласно процедуре, проиллюстрированной на фиг. 2. Затем детектор 606 музыкального содержимого принимает извлеченные признаки для получения показателя Cm(t) достоверности музыки; тем временем детектор 608 речевого содержимого также принимает извлеченные признаки для получения показателя Cs(t) достоверности речи. Кроме того, показатель Cm(t) достоверности музыки и показатель Cs(t) достоверности речи могут быть дополнительно сглажены медианным фильтром или средним фильтром. Кроме того, в компоненте 610 постобработки показатель Cm(t) достоверности музыки и показатель Cs(t) достоверности речи объединяют для получения окончательного показателя достоверности диалога. В частности, исходный показатель достоверности диалога уточняют для получения уточненного окончательного показателя достоверности диалога в компоненте 610 постобработки. Как правило, исходный показатель достоверности диалога может быть в некоторой степени уменьшен, если показатель Cm(t) достоверности музыки для такого же кадра также является высоким. Однако это может привести к чрезмерному уменьшению показателя Cs(t) достоверности речи, поскольку содержимое реального диалога может также генерировать как высокий показатель достоверности диалога, так и высокий показатель достоверности музыки, если диалог присутствует с музыкальным фоном. Для решения этой проблемы с целью определения того, можно ли показатель Cs(t) достоверности музыки уверенно использовать для уточнения показателя достоверности диалога, можно применять исторический контекст. Если исторический контекст является преобладающим в диалоге, более консервативным будет уточнение показателя достоверности диалога, то есть с намерением проигнорировать показатель достоверности музыки. Поэтому в некоторых вариантах осуществления окончательный показатель достоверности диалога уточняют по следующей формуле (12):Fig. 9 is a block diagram of a dialogue detector 600, further including a music content detector 606, in accordance with some embodiments. First, the input audio signal is divided into a plurality of frames and converted to a spectral representation using discrete Fourier transform (DFT) 602. Feature extraction component 604 then extracts features to represent each frame according to the procedure illustrated in FIG. 2. Then, the music content detector 606 takes the extracted features to obtain a music credibility score C m (t); meanwhile, the speech content detector 608 also receives the extracted features to obtain a speech confidence score C s (t). In addition, the music fidelity score C m (t) and the speech fidelity score C s (t) may be further smoothed by a median filter or an average filter. Additionally, in post-processing component 610, the music fidelity score C m (t) and the speech fidelity score C s (t) are combined to produce a final score reliability of the dialogue. In particular, the initial indicator of dialogue reliability is refined to obtain an updated final indicator dialogue authenticity in post-processing component 610. Typically, the original dialogue fidelity score can be reduced to some extent if the music fidelity score C m (t) for the same frame is also high. However, this may result in an excessive reduction in the speech fidelity score C s (t) since real dialogue content can also generate both a high dialogue fidelity score and a high music fidelity score if the dialogue is present with background music. To address this issue, historical context can be used to determine whether the music fidelity score C s (t) can be confidently used to refine the dialogue fidelity score. If the historical context is predominant in the dialogue, it would be more conservative to specify the dialogue fidelity score, that is, with the intention of ignoring the music fidelity score. Therefore, in some embodiments, the final indicator the reliability of the dialogue is clarified using the following formula (12):

Здесь представляет уточненный показатель достоверности диалога в кадре t, Cs(t) – показатель достоверности речи, Cm(t) – показатель достоверности музыки и β – контекстно-зависимый параметр, определяющий, насколько показатель достоверности музыки влияет на окончательный показатель достоверности диалога. В одном варианте осуществления β рассчитывают по доле кадров, идентифицированных в историческом контексте как речь или музыка. Например, β могут задавать как отношение кадров, идентифицированных в историческом контексте как музыка простым двоичным методом. В частности, β могут задавать равным единице, если в контексте преобладает музыка, и β могут задавать равным нулю, если в контексте преобладает диалог, как представлено в формуле (13):Here represents the refined dialogue confidence score at frame t, C s (t) is the speech confidence score, C m (t) is the music confidence score, and β is a context-sensitive parameter that determines how much the music confidence score influences the final dialogue confidence score. In one embodiment, β is calculated from the proportion of frames identified in the historical context as speech or music. For example, β may be defined as the ratio of frames identified in historical context as music by a simple binary method. In particular, β may be set equal to one if the context is dominated by music, and β may be set equal to zero if the context is dominated by dialogue, as represented in formula (13):

Здесь Nm представляет число музыкальных кадров, N – общее число кадров в историческом контексте; rth – пороговое значение, обычно задаваемое равным 0,5, хотя пороговое значение также может быть настроено между 0 и 1 в зависимости от того, насколько агрессивное влияние оказывают музыкальные кадры. Альтернативно β может быть представлен как непрерывная функция, например как линейная функция, как проиллюстрировано в формуле (14), или как сигмоидальная функция, как проиллюстрировано в формуле (15):Here N m represents the number of musical frames, N is the total number of frames in the historical context; r th is a threshold value typically set to 0.5, although the threshold value can also be adjusted between 0 and 1 depending on how aggressive the music frames are. Alternatively, β can be represented as a continuous function, such as a linear function, as illustrated in formula (14), or as a sigmoid function, as illustrated in formula (15):

Здесь а представляет масштабный коэффициент, регулирующий форму сигмоидальной функции, и в настоящем изобретении может быть задан равным 5. Кроме того, исторический контекст, используемый при определении контекстно-зависимого параметра β, может быть намного длиннее, чем кадры истории, используемые для извлечения долговременных признаков, например, длину или диапазон исторического контекста могут задавать равными 10 секундам или даже более продолжительными.Here, a represents a scaling factor governing the shape of the sigmoidal function, and in the present invention may be set to 5. Moreover, the historical context used in determining the context-sensitive parameter β may be much longer than the history frames used to extract long-term features , for example, the length or range of the historical context may be set to 10 seconds or even longer.

Методы для детектора диалогов, описанные в настоящем документе, могли бы быть реализованы одним или более вычислительными устройствами. Например, контроллер вычислительного устройства специального назначения может быть аппаратно реализованным для выполнения описанных операций или обеспечения выполнения этих операций и может содержать цифровые электронные схемы, такие как одна или несколько специализированных интегральных схем (ASIC) или программируемых пользователем вентильных матриц (FPGA), постоянно запрограммированных для выполнения операций или обеспечения выполнения операций. В некоторых вариантах осуществления специальная аппаратно реализованная логика, устройства ASIC и/или FPGA с программированием по индивидуальному заказу комбинируют для выполнения указанных способов.The conversation detector techniques described herein could be implemented by one or more computing devices. For example, a special purpose computing device controller may be hardware implemented to perform or enable the described operations and may include digital electronic circuits, such as one or more application specific integrated circuits (ASICs) or field programmable gate arrays (FPGAs), permanently programmed to performing operations or ensuring the execution of operations. In some embodiments, custom hardware-based logic, ASICs, and/or FPGA devices with custom programming are combined to perform these methods.

В некоторых других вариантах осуществления вычислительное устройство общего назначения могло бы содержать контроллер, содержащий центральный процессор (ЦП), запрограммированный для обеспечения выполнения одной или более из описанных операций в соответствии с программными командами в программно-аппаратных средствах, памяти, другом запоминающем устройстве или их комбинации.In some other embodiments, a general purpose computing device could comprise a controller comprising a central processing unit (CPU) programmed to cause one or more of the described operations to be performed in accordance with software instructions in firmware, memory, other storage device, or a combination thereof. .

Термин «машиночитаемый носитель» в значении, в котором он используется в настоящем описании, относится к любому носителю, хранящему команды и/или данные, вызывающие работу компьютера или машины иного типа конкретным образом. Любые из моделей, детектор и операции, описанные в настоящем документе , могут быть реализованы или их реализация может обеспечиваться кодом программного обеспечения, исполняемым процессором контроллера с использованием соответствующего компьютерного языка. Код программного обеспечения может храниться в виде последовательности команд на машиночитаемом запоминающем носителе. Примеры подходящего машиночитаемого запоминающего носителя включают оперативное запоминающее устройство (ОЗУ), постоянное запоминающее устройство (ПЗУ), магнитный носитель, оптический носитель, твердотельный накопитель, флэш-память и любой иной кристалл или картридж памяти. Машиночитаемый запоминающий носитель может представлять собой любую комбинацию указанных запоминающих устройств. Любой такой машиночитаемый запоминающий носитель может размещаться на или в одном вычислительном устройстве или в целой компьютерной системе и может находиться среди других машиночитаемых запоминающих носителей в системе или сети.The term “computer readable medium” as used herein refers to any medium storing instructions and/or data causing a computer or other type of machine to operate in a particular manner. Any of the models, detector and operations described herein may be implemented or implemented by software code executed by the controller processor using an appropriate computer language. The software code may be stored as a sequence of instructions on a computer-readable storage medium. Examples of suitable computer-readable storage media include random access memory (RAM), read only memory (ROM), magnetic media, optical media, solid state drive, flash memory, and any other memory chip or cartridge. The computer readable storage medium may be any combination of these storage devices. Any such computer-readable storage media may be located on or in a single computing device or an entire computer system, and may be located among other computer-readable storage media on a system or network.

Хотя объект настоящего изобретения конкретно показан и описан со ссылками на его варианты осуществления, специалистам в данной области техники будет понятно, что в раскрытые варианты осуществления могут вноситься изменения формы и деталей в пределах сущности или объема настоящего изобретения. Примеры некоторых их этих вариантов осуществления проиллюстрированы на прилагаемых графических материалах, а для обеспечения их глубокого понимания изложены конкретные детали. Следует отметить, что варианты осуществления могут быть реализованы на практике без некоторых или всех из этих конкретных деталей. Кроме того, для ясности изложения хорошо известные признаки могли быть подробно не описаны. Наконец, хотя преимущества были рассмотрены в данном документе со ссылкой на некоторые варианты осуществления, будет понятно, что объем настоящего изобретения не следует ограничивать ссылкой на эти преимущества. Скорее, объем следует определять со ссылкой на прилагаемые пункты формулы изобретения.While the subject matter of the present invention is specifically shown and described with reference to embodiments thereof, those skilled in the art will appreciate that changes in form and detail may be made to the disclosed embodiments without departing from the spirit or scope of the present invention. Examples of some of these embodiments are illustrated in the accompanying graphics, and specific details are set forth to provide a thorough understanding thereof. It should be noted that embodiments may be practiced without some or all of these specific details. In addition, for the sake of clarity of presentation, well-known features may not have been described in detail. Finally, although advantages have been discussed herein with reference to certain embodiments, it will be understood that the scope of the present invention should not be limited by reference to these advantages. Rather, the scope should be determined by reference to the appended claims.

Различные аспекты настоящего изобретения можно понять из следующих пронумерованных примерных вариантов осуществления (ППВО):Various aspects of the present invention can be understood from the following numbered exemplary embodiments (NEX):

1. Способ извлечения звукового признака в детекторе диалогов в ответ на входной звуковой сигнал, включающий:1. A method for extracting an audio feature in a dialogue detector in response to an input audio signal, comprising:

извлечение, компонентом извлечения кадровых признаков, кадровых признаков из каждого кадра из множества кадров, выделенных из входного звукового сигнала;extracting, by the frame feature extraction component, frame features from each frame of the plurality of frames extracted from the input audio signal;

определение, компонентом определения комбинированного временного контекста, длины или диапазона каждого контекста;determining, by the combined temporal context determination component, the length or range of each context;

выведение соответствующего контекстного признака на основании кадровых признаков в каждом определенном контексте; иderiving the corresponding contextual feature based on the personnel features in each specific context; And

выполнение конкатенации над каждым контекстным признаком и формирование комбинированного вектора признаков для представления текущего кадра.performing concatenation on each contextual feature and generating a combined feature vector to represent the current frame.

2. Способ по ППВО 1, отличающийся тем, что комбинированный временной контекст содержит: 2. Method according to PPVO 1, characterized in that the combined time context contains:

кратковременный контекст, представляющий локальную информацию вокруг текущего кадра;short-term context, representing local information around the current frame;

средневременный контекст, дополнительно содержащий множество кадров ретроспективного просмотра; и a mid-temporal context further comprising a plurality of flashback frames; And

долговременный контекст, дополнительно содержащий множество кадров долговременной истории.long-term context, additionally containing many long-term history frames.

3. Способ по ППВО 1 или 2, в котором длину или диапазон одного или более контекстов могут определять предварительно.3. A method according to PPVO 1 or 2, in which the length or range of one or more contexts can be predetermined.

4. Способ по ППВО 2 или 3, в котором кратковременный контекст содержит текущий кадр и кадры опережающего просмотра, если доступен буфер опережающего просмотра; или кратковременный контекст содержит текущий кадр и первую часть кадров ретроспективного просмотра, если буфер опережающего просмотра недоступен.4. The method according to OPVO 2 or 3, in which the short-term context contains the current frame and lookahead frames if a lookahead buffer is available; or the short-term context contains the current frame and the first part of the flashback frames if the lookahead buffer is not available.

5. Способ по ППВО 2 или 3, в котором средневременный контекст содержит текущий кадр, кадры опережающего просмотра и кадры ретроспективного просмотра, если доступен буфер опережающего просмотра; или средневременный контекст содержит текущий кадр, первую часть кадров ретроспективного просмотра и вторую часть кадров ретроспективного просмотра, если буфера опережающего просмотра недоступен.5. The method according to VPVO 2 or 3, in which the medium-temporal context contains the current frame, lookahead frames, and lookahead frames if a lookahead buffer is available; or the mid-temporal context contains the current frame, the first part of the flashback frames, and the second part of the flashback frames if no lookahead buffer is available.

6. Способ по ППВО 2 или 3, в котором долговременный контекст содержит текущий кадр, кадры опережающего просмотра, кадры ретроспективного просмотра и кадры долговременной истории, если доступен буфер опережающего просмотра; или долговременный контекст содержит текущий кадр, первую часть кадров ретроспективного просмотра, вторую часть кадров ретроспективного просмотра и кадры долговременной истории, если буфер опережающего просмотра недоступен.6. The method according to OPVO 2 or 3, in which the long-term context contains the current frame, lookahead frames, lookahead frames, and long-term history frames if a lookahead buffer is available; or the long-term context contains the current frame, the first part of the flashback frames, the second part of the flashback frames, and long-term history frames if the lookahead buffer is not available.

7. Способ по ППВО 1 или 2, в котором длину или диапазон одного или более контекстов могут определять адаптивно.7. A method according to DPVO 1 or 2, in which the length or range of one or more contexts can be determined adaptively.

8. Способ по ППВО 7, в котором длину или диапазон одного или более контекстов могут определять адаптивно путем анализа стационарности признаков кадрового уровня.8. The method according to PPVO 7, in which the length or range of one or more contexts can be determined adaptively by analyzing the stationarity of frame-level features.

9. Способ по ППВО 8, в котором адаптивное определение длины или диапазона одного или более контекстов основано на информации, относящейся к амплитуде входного звукового сигнала.9. The method according to PPVO 8, wherein adaptively determining the length or range of one or more contexts is based on information related to the amplitude of the input audio signal.

10. Способ по ППВО 2 или 9, в котором адаптивное определение длины или диапазона кратковременного контекста включает:10. A method according to PPVO 2 or 9, in which the adaptive determination of the length or range of the short-term context includes:

вычисление кратковременной энергии одного кадра из множества кадров входного звукового сигнала;calculating the short-term energy of one frame from a plurality of frames of the input audio signal;

сглаживание вычисленной кратковременной энергии;smoothing the calculated short-term energy;

определение разницы между сглаженной кратковременной энергией кадра и сглаженной кратковременной энергией предыдущего кадра;determining the difference between the smoothed short-term energy of the frame and the smoothed short-term energy of the previous frame;

определение начала на основании того, удовлетворяет ли эта разница пороговому значению;determining the start based on whether the difference meets a threshold;

нормирование начала;normalization of the beginning;

определение границы для длины или диапазона кратковременного контекста одним из следующих этапов:defining a boundary for the length or range of a short-term context by one of the following steps:

взятием положения, имеющего наибольшее начало, в качестве границы; илиtaking the position having the greatest origin as the boundary; or

взятием пикового начала в качестве границы, на основании того, удовлетворяет ли пик пороговому значению; илиtaking the peak onset as a boundary based on whether the peak satisfies a threshold; or

взятием пикового начала в качестве границы на основании как порогового значения, так и расстояния между началом и мощным переходом непосредственно перед началом.by taking the peak onset as a boundary based on both the threshold value and the distance between the onset and the strong transition immediately before the onset.

11. Способ по ППВО 8, в котором адаптивное определение длины или диапазона одного или более контекстов основано на информации, относящейся к спектру входного звукового сигнала.11. The method according to AFPR 8, wherein adaptively determining the length or range of one or more contexts is based on information related to the spectrum of the input audio signal.

12. Способ по ППВО 2 или 11, в котором адаптивное определение длины или диапазона кратковременного контекста включает:12. The method according to PPVO 2 or 11, in which the adaptive determination of the length or range of the short-term context includes:

предположение, что временная метка в окне байесовских информационных критериев является истинной границей для длины или диапазона кратковременного контекста;the assumption that the timestamp in the Bayesian Information Criteria window is a true boundary for the length or range of the short-term context;

предположение, что эта временная метка в окне байесовских информационных критериев не является истинной границей для длины или диапазона кратковременного контекста;the assumption that this timestamp in the Bayesian Information Criteria window is not a true boundary for the length or range of the short-term context;

определение отличия байесовских информационных критериев между двумя гипотезами;determining the difference in Bayesian information criteria between two hypotheses;

нормирование отличия байесовских информационных критериев; иnormalization of differences in Bayesian information criteria; And

рассмотрение пика отличия байесовских информационных критериев в качестве положения истинной границы для длины или диапазона кратковременного контекста на основании того, удовлетворяет ли пик пороговому значению.considering the Bayesian Information Criteria difference peak as the position of the true cutoff for the length or range of short-term context based on whether the peak satisfies a threshold.

13. Способ по любому из предыдущих ППВО 2, 7–12, в котором кратковременный контекст может распространяться в направлениях как опережающего просмотра, так и ретроспективного просмотра, или распространяться только в одном направлении.13. The method as in any one of the previous OPVOs 2, 7-12, wherein the short-term context may propagate in both the look-ahead and look-ahead directions, or propagate in only one direction.

14. Способ по любому из предыдущих ППВО, в котором длину или диапазон контекстов могут определять предварительно в комбинации с адаптивным определением.14. The method as in any one of the preceding DPWs, wherein the length or range of contexts may be predetermined in combination with adaptive determination.

15. Способ понижающего микширования входного звукового сигнала детектора диалогов, включающий:15. A method for downmixing an input audio signal of a dialogue detector, comprising:

разделение входного звукового сигнала на множество кадров;dividing the input audio signal into multiple frames;

преобразование кадров в левом канале и правом канале в спектральное представление кадров;converting frames in the left channel and right channel into a spectral representation of the frames;

устранение некоррелированных сигналов в левом канале и правом канале путем применения частотно-зависимых коэффициентов усиления к спектру в левом канале и правом канале соответственно; eliminating uncorrelated signals in the left channel and right channel by applying frequency-dependent gains to the spectrum in the left channel and right channel, respectively;

получение сигнала понижающего микширования иreceiving the downmix signal and

подачу сигнала понижающего микширования в детектор диалогов способом по любому из предыдущих ППВО 1–14.supplying the downmix signal to the dialogue detector in the manner of any of the previous DPVOs 1–14.

16. Способ по ППВО 15, в котором частотно-зависимые коэффициенты усиления могут вычислять из ковариационной матрицы.16. The method according to PPVO 15, in which frequency-dependent gains can be calculated from the covariance matrix.

17. Способ классификации входного звукового сигнала детектора диалогов, включающий:17. A method for classifying the input audio signal of a dialogue detector, including:

прием детектором речевого содержимого признаков, извлеченных способом по любому из предыдущих ППВО 1–14;receiving by the speech content detector the features extracted by the method according to any of the previous PPVOs 1–14;

определение детектором речевого содержимого показателя достоверности речи; иdetermination by the speech content detector of the speech reliability indicator; And

прием детектором музыкального содержимого признаков, извлеченных способом по любому из предыдущих ППВО 1–14;receiving by the music content detector the features extracted by the method according to any of the previous PPVOs 1–14;

определение детектором музыкального содержимого показателя достоверности музыки; иdetermination by the music content detector of the music reliability indicator; And

комбинирование показателя достоверности речи и показателя достоверности музыки для получения окончательного показателя достоверности диалога.combining the speech fidelity score and the music fidelity score to produce a final dialogue fidelity score.

18. Способ по ППВО 17, в котором окончательный показатель достоверности диалога могут уточнять посредством контекстно-зависимого параметра.18. Method according to PPVO 17, in which the final indicator of the reliability of the dialogue can be clarified by means of a context-sensitive parameter.

19. Способ по ППВО 18, в котором контекстно-зависимый параметр могут вычислять на основании доли кадров, идентифицированных как речь или музыка в историческом контексте.19. The method of PPVO 18, wherein the context-sensitive parameter may be calculated based on the proportion of frames identified as speech or music in the historical context.

20. Способ по ППВО 19, в котором исторический контекст может иметь продолжительность десять секунд или более.20. Method according to AAPR 19, in which the historical context may have a duration of ten seconds or more.

Claims (29)

1. Способ получения показателя достоверности, представляющего вероятность наличия диалога в текущем кадре входного звукового сигнала, способ включает:1. A method for obtaining a confidence indicator representing the probability of the presence of dialogue in the current frame of an input audio signal, the method includes: разделение входного звукового сигнала на множество кадров;dividing the input audio signal into multiple frames; извлечение кадровых звуковых признаков из каждого кадра I;extracting frame audio features from each frame I; определение набора контекстных окон, где каждое контекстное окно содержит некоторое количество кадров, окружающих текущий кадр;defining a set of context windows, where each context window contains a number of frames surrounding the current frame; выведение для каждого контекстного окна соответствующего контекстного звукового признака для текущего кадра на основании кадровых звуковых признаков кадров в каждом соответствующем контексте;deriving, for each context window, a corresponding contextual audio feature for the current frame based on the frame audio features of the frames in each corresponding context; выполнение конкатенации над каждым контекстным звуковым признаком с формированием комбинированного вектора признаков для представления текущего кадра; иperforming concatenation on each contextual audio feature to form a combined feature vector to represent the current frame; And получение показателя достоверности речи, представляющего вероятность наличия диалога в текущем кадре, с использованием комбинированного вектора признаков,obtaining a speech reliability indicator representing the probability of the presence of dialogue in the current frame using a combined feature vector, при этом количество кадров в одном или более контекстных окнах определяют адаптивно на основании извлеченных кадровых звуковых признаков.wherein the number of frames in one or more context windows is determined adaptively based on the extracted frame audio features. 2. Способ по п. 1, отличающийся тем, что набор контекстных окон содержит:2. The method according to claim 1, characterized in that the set of context windows contains: кратковременное контекстное окно, содержащее текущий кадр и некоторое количество кадров, предшествующих текущему кадру и/или следующих за ним;a short-term context window containing the current frame and a number of frames preceding and/or following the current frame; средневременное контекстное окно, содержащее кадры кратковременного контекстного окна и множество кадров ретроспективного просмотра; иa medium-term context window containing short-term context window frames and a plurality of lookback frames; And долговременное контекстное окно, содержащее кадры средневременного контекстного окна и множество кадров долговременной истории.a long-term context window containing frames of the medium-term context window and many long-term history frames. 3. Способ по п. 1 или п. 2, отличающийся тем, что количество кадров в одном или более контекстных окнах определяют адаптивно путем анализа стационарности звуковых признаков кадрового уровня.3. The method according to claim 1 or claim 2, characterized in that the number of frames in one or more context windows is determined adaptively by analyzing the stationarity of frame-level audio features. 4. Способ по п. 3, отличающийся тем, что адаптивное определение количества кадров в одном или более контекстных окнах основано на информации, относящейся к амплитуде входного звукового сигнала.4. The method according to claim 3, characterized in that the adaptive determination of the number of frames in one or more context windows is based on information related to the amplitude of the input audio signal. 5. Способ по п. 4, отличающийся тем, что адаптивное определение количества кадров в одном или более контекстных окнах основано на информации, относящейся к спектру входного звукового сигнала.5. The method according to claim 4, characterized in that the adaptive determination of the number of frames in one or more context windows is based on information related to the spectrum of the input audio signal. 6. Способ по любому из предыдущих пунктов, отличающийся тем, что дополнительно включает:6. The method according to any of the previous paragraphs, characterized in that it additionally includes: преобразование кадров в левом канале и правом канале в спектральное представление кадров;converting frames in the left channel and right channel into a spectral representation of the frames; устранение некоррелированных сигналов в левом канале и правом канале путем применения частотно-зависимых коэффициентов усиления к спектральному представлению в левом канале и правом канале соответственно;eliminating uncorrelated signals in the left channel and right channel by applying frequency-dependent gains to the spectral representation in the left channel and right channel, respectively; получение сигнала понижающего микширования из левого и правого каналов; иreceiving a downmix signal from the left and right channels; And использование указанного сигнала после понижающего микширования в качестве указанного входного звукового сигнала.using the specified signal after downmixing as the specified input audio signal. 7. Способ по п. 6, отличающийся тем, что частотно-зависимые коэффициенты усиления вычисляют из ковариационной матрицы.7. The method according to claim 6, characterized in that the frequency-dependent gains are calculated from the covariance matrix. 8. Способ классификации входного звукового сигнала детектора диалогов, включающий:8. A method for classifying the input audio signal of a dialogue detector, including: получение показателя достоверности речи способом по любому из предыдущих пунктов 1-7;obtaining an indicator of speech reliability using the method according to any of the previous paragraphs 1-7; определение показателя достоверности музыки на основе комбинированного вектора признаков; иdetermining the music reliability indicator based on the combined feature vector; And комбинирование показателя достоверности речи и показателя достоверности музыки для получения окончательного показателя достоверности диалога.combining the speech fidelity score and the music fidelity score to produce a final dialogue fidelity score. 9. Способ по п. 8, отличающийся тем, что окончательный показатель достоверности диалога уточняют посредством контекстно-зависимого параметра.9. The method according to claim 8, characterized in that the final indicator of the reliability of the dialogue is clarified by means of a context-dependent parameter. 10. Способ по п. 9, отличающийся тем, что контекстно-зависимый параметр вычисляют на основании доли кадров, идентифицированных как речь или музыка в контекстном окне истории, например, продолжительностью по меньшей мере десять секунд.10. The method of claim 9, wherein the context-sensitive parameter is calculated based on the proportion of frames identified as speech or music in the contextual history window, for example, lasting at least ten seconds. 11. Детектор диалогов, содержащий средства для выполнения способа по любому из пунктов 1-7.11. A dialogue detector containing means for performing the method according to any of paragraphs 1-7. 12. Машиночитаемый запоминающий носитель, на котором хранятся команды, которые при их исполнении вызывают выполнение компьютером способа по любому из пунктов 1-7.12. A computer-readable storage medium on which instructions are stored that, when executed, cause a computer to execute the method of any of paragraphs 1-7.
RU2021130115A 2019-04-18 2020-04-13 Dialog detector RU2807170C2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/083173 2019-04-18
US62/840,839 2019-04-30
EP19192553.6 2019-08-20

Publications (2)

Publication Number Publication Date
RU2021130115A RU2021130115A (en) 2023-04-17
RU2807170C2 true RU2807170C2 (en) 2023-11-10

Family

ID=

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040172244A1 (en) * 2002-11-30 2004-09-02 Samsung Electronics Co. Ltd. Voice region detection apparatus and method
US20110119061A1 (en) * 2009-11-17 2011-05-19 Dolby Laboratories Licensing Corporation Method and system for dialog enhancement
US20120041762A1 (en) * 2009-12-07 2012-02-16 Pixel Instruments Corporation Dialogue Detector and Correction
RU2016140453A (en) * 2014-04-17 2018-04-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи TALK DETECTION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040172244A1 (en) * 2002-11-30 2004-09-02 Samsung Electronics Co. Ltd. Voice region detection apparatus and method
US20110119061A1 (en) * 2009-11-17 2011-05-19 Dolby Laboratories Licensing Corporation Method and system for dialog enhancement
US20120041762A1 (en) * 2009-12-07 2012-02-16 Pixel Instruments Corporation Dialogue Detector and Correction
RU2016140453A (en) * 2014-04-17 2018-04-16 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи TALK DETECTION

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DIRK VON ZEDDELMANN AND FRANK KURTH "A construction of compact mfcc-type features using short-time statistics for applications in audio segmentation", 24.08.2009, стр. 1504-1508. *

Similar Documents

Publication Publication Date Title
Graf et al. Features for voice activity detection: a comparative analysis
EP0625774B1 (en) A method and an apparatus for speech detection
Ibrahim Preprocessing technique in automatic speech recognition for human computer interaction: an overview
Delcroix et al. Compact network for speakerbeam target speaker extraction
EP3411876B1 (en) Babble noise suppression
US20060053009A1 (en) Distributed speech recognition system and method
EP2083417B1 (en) Sound processing device and program
US8489404B2 (en) Method for detecting audio signal transient and time-scale modification based on same
EP1794746A2 (en) Method of training a robust speaker-independent speech recognition system with speaker-dependent expressions and robust speaker-dependent speech recognition system
CN108305639B (en) Speech emotion recognition method, computer-readable storage medium and terminal
CN108682432B (en) Speech emotion recognition device
Hurmalainen et al. Detection, separation and recognition of speech from continuous signals using spectral factorisation
CN106898362A (en) The Speech Feature Extraction of Mel wave filters is improved based on core principle component analysis
KR101122590B1 (en) Apparatus and method for speech recognition by dividing speech data
Lee et al. Dynamic noise embedding: Noise aware training and adaptation for speech enhancement
Seman et al. An evaluation of endpoint detection measures for malay speech recognition of an isolated words
KR101122591B1 (en) Apparatus and method for speech recognition by keyword recognition
Nicolson et al. On training targets for deep learning approaches to clean speech magnitude spectrum estimation
RU2807170C2 (en) Dialog detector
CN106920558B (en) Keyword recognition method and device
EP3956890B1 (en) A dialog detector
KR101184394B1 (en) method of noise source separation using Window-Disjoint Orthogonal model
Heese et al. Speech-codebook based soft voice activity detection
CN114333767A (en) Speaker voice extraction method, device, storage medium and electronic equipment
Nosan et al. Enhanced Feature Extraction Based on Absolute Sort Delta Mean Algorithm and MFCC for Noise Robustness Speech Recognition.