BRPI0807703A2 - Aperfeiçoamento da fala em audio de entretenimento - Google Patents

Aperfeiçoamento da fala em audio de entretenimento Download PDF

Info

Publication number
BRPI0807703A2
BRPI0807703A2 BRPI0807703-7A BRPI0807703A BRPI0807703A2 BR PI0807703 A2 BRPI0807703 A2 BR PI0807703A2 BR PI0807703 A BRPI0807703 A BR PI0807703A BR PI0807703 A2 BRPI0807703 A2 BR PI0807703A2
Authority
BR
Brazil
Prior art keywords
speech
audio
level
range
entertainment audio
Prior art date
Application number
BRPI0807703-7A
Other languages
English (en)
Inventor
Hannes Muesch
Original Assignee
Dolby Lab Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Lab Licensing Corp filed Critical Dolby Lab Licensing Corp
Publication of BRPI0807703A2 publication Critical patent/BRPI0807703A2/pt
Publication of BRPI0807703B1 publication Critical patent/BRPI0807703B1/pt

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • G10L2025/932Decision in previous or following frames
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • G10L2025/937Signal energy in various frequency bands

Description

Relatório Descritivo da Patente de Invenção para "APERFEI- ÇOAMENTO DA FALA EM AUDIO DE ENTRETENIMENTO".
Descrição Campo técnico
5 A presente invenção refere-se a processamento de sinal de áu-
dio. Mais especificamente, a invenção refere-se a processamento de audio de entretenimento, como audio de televisão, para aperfeiçoar a clareza e inteligibilidade da fala, tais como diálogo e narrativa de audio. A invenção refere-se a métodos, a aparelho para executar tais métodos, e a software 10 armazenado em um meio legível de computador para causar a um computa- dor a executar tais métodos.
Antecedentes da Técnica
O entretenimento audiovisual evoluiu dentro de uma rápida se- qüência compassada de diálogo, narrativa, música, e efeitos. O alto realismo 15 realizável com tecnologias modernas de audios de entretenimento e méto- dos de saída encorajou o uso de estilos conversacionais de falar na televi- são que diferem substancialmente da apresentação como estágio anunciado claramente do passado. Esta situação coloca um problema não somente para a população crescente de espectadores de idade avançada que, em 20 face da diminuição sensorial e das habilidades de processamento de lingua- gem, devem se esforçar para seguir a programação mas também para pes- soas com audição normal, por exemplo, quando escutando em níveis acústi- cos baixos.
Como a fala é entendida depende de vários fatores. Exemplos 25 são o cuidado de saída da fala (fala clara ou conversacional), a taxa da fala, e a audibilidade da fala. O idioma falado é notavelmente robusto e pode ser entendido sob condições menores do que as ideais. Por exemplo, ouvintes de audição prejudicada podem, tipicamente, seguir fala clara até mesmo quando eles não puderem ouvir partes da fala devido a acuidade de audição 30 diminuida. No entanto, enquanto a taxa da falar aumenta e a saída da fala torna-se menos precisa, escutar e compreender exije esforço crescente, par- ticularmente se partes do espectro da fala são inaudíveis. Devido ao fato de que públicos de televisão não podem fazer nada para afetar a clareza da fala de radiodifusão, os ouvintes de audição prejudicada podem tentar compensar a audibilidade inadequada aumentan- do o volume de escutar. Aparte de ser censurável para pessoas de audição 5 normal na mesma sala ou para vizinhos, esta abordagem é somente parci- almente eficaz. Isto é assim porque a maior parte das perdas de audição não são uniformes através das frequências; elas afetam frequências altas mais do que baixas e médias frequências. Por exemplo, a habilidade típica de um macho de 70 anos de ouvir sons a 6 kHz é mais ou menos 50 dB pior do que 10 aquela de uma pessoa jovem, mas em frequências abaixo de 1 kHz a des- vantagem de audição da pessoa mais velha é menos do que 10 dB (ISO 7029, Acoustics - Statistical distribution of hearing thresolds as a function of age). Aumentar o volume torna sons de frequência baixa e média mais altos sem aumentar significativamente sua contribuição para a inteligibilidade por- 15 que para aquelas frequências a audibilidade já é adequada. Aumentar o vo- lume também faz pouco para superar a perda de audição significativa em frequências altas. Uma correção mais apropriada é um controle de tom, co- mo que provido por um equalizador gráfico.
Embora uma melhor opção do que simplesmente aumentar o controle de volume, um controle de tom é ainda insuficiente para a maior parte das perdas de audição. O grande ganho requerido de frequência alta para tornar passagens suaves audíveis para o ouvinte de audição prejudica- da é provável ser desconfortavelmente alto durante as passagens de nível alto e pode até sobrecarregar a cadeia de reprodução de audio. Uma solu- ção melhor é amplificar dependendo do nível do sinal, provendo ganhos maiores para partes de sinal de baixo nível e ganhos menores (ou nenhum ganho mesmo) para partes de nível alto. Tais sistemas, conhecidos como controles de ganho automático (AGC) ou compressores dinâmicos de faixa (DRC) são usados na ajuda de audição e seu uso para aperfeiçoar a inteligi- bilidade para a audição prejudicada em sistemas de telecomunicação foi proposta (por exemplo, patente US 5,388,185, Patente US 5,539,806, e Pa- tente US 6,061,43 1). Devido a que perda de audição desenvolve-se geralmente gra- dualmente, a maioria dos ouvintes com dificuldades de audição cresceu a- costumado a suas perdas. Como resultado, eles frequentemente objetam a qualidade de som de audio de entretenimento quando ele é processado para 5 compensar por sua deterioração de audição. Públicos de audição prejudica- da são mais prováveis de aceitar a qualidade de som de audio compensado quando ele provê um benefício tangível para eles, tal como quando ele au- menta a inteligibilidade de diálogo e narrativa ou reduz o esforço mental re- querido para compreensão. Portanto é vantajoso limitar a aplicação com- 10 pensação de perda de audição para aquelas partes do programa de audio que são dominados por fala. Fazendo assim, otimiza a escolha entre modifi- cações de qualidade de som potencialmente censuráveis de música e sons ambientes por um lado e os benefícios de inteligibilidade desejáveis no ou- tro.
Descrição da Invenção
De acordo com um aspecto da invenção, a fala no audio de en- tretenimento pode ser aperfeiçoada processando, em resposta a um ou mais controles, o audio de entretenimento para aperfeiçoar a clareza e inteligibili- dade de partes da fala do audio de entretenimento, gerar um controle para o 20 processamento, a geração incluindo caracterizar segmentos de tempo do audio de entretenimento como (a) fala ou não-fala ou (b) como provável de ser fala ou não-fala, e responder a mudanças no nível do audio de entrete- nimento para prover um controle para o processamento, em que tais mudan- ças são respondidas dentro de um período de tempo menor do que os seg- 25 mentos de tempo, e um critério de decisão da resposta é controlado pela caracterização. Cada um do processamento e da resposta podem operar em faixas de frequência múltipla correspondente, a resposta provendo um con- trole para o processamento para cada uma das faixas de frequência múltipla.
Aspectos da invenção podem operar em uma maneira de "olhar adiante" tal que quando existe acesso a uma evolução de tempo do audio de entretenimento antes e depois de um ponto de processamento, e em que o gerar um controle responde a pelo menos algum audio depois do ponto de processamento.
Aspectos da invenção podem empregar separação temporal e/ou espacial tais que passos do processamento, como caracterizar e res- ponder são executados em tempos diferentes ou em lugares diferentes. Por 5 exemplo, a caracterização pode ser executada em um primeiro tempo ou lugar, o processamento e resposta podem ser executados em um segundo tempo ou lugar, e informação sobre a caracterização de segmentos de tem- po pode ser armazenada ou transmitida para controlar os critérios de deci- são da resposta.
Aspectos da invenção podem incluir codificar também o audio de
entretenimento conforme um esquema de codificação perceptiva ou um es- quema de codificação sem perda, e decodificar o audio de entretenimento de acordo com o mesmo esquema de codificação empregado pela codificação, em que passos do processamento, como caracterizar e responder são exe- 15 cutados junto com a codificação ou a decodificação. A caracterização pode ser executada junto com a codificação e o processamento e/ou o resposta pode ser executado junto com a decodificação.
De acordo com aspectos acima mencionados da invenção, o processamento pode operar de acordo com um ou mais parâmetros de pro- cessamento. O ajuste de um ou mais parâmetros podem ser em resposta ao audio de entretenimento de tal forma que uma métrica de inteligibilidade da fala do audio processado é ou maximizado ou impulsionado acima de um nível de limite desejado. De acordo com aspectos da invenção, o audio de entretenimento pode compreender canais múltiplos de audio nos quais um canal é principalmente fala e o um ou mais outros canais são principalmente de não-fala, em que a métrica da intelibilidade de fala é baseada no nível do canal da fala e o nível no um ou mais outros canais. A métrica da inteligibili- dade de fala pode ser também baseada no nível de ruído no ambiente de escutar em que o audio processado é reproduzido. O ajuste de um ou mais parâmetros pode ser em resposta a um ou mais descritos a longo prazo do audio de entretenimento. Os exemplos de descritores a longo prazo incluem o nível médio de diálogo do audio de entretenimento e uma estimativa de processamento já aplicado ao audio de entretenimento. O ajuste de um ou mais parâmetros podem ser de acordo com uma fórmula prescritiva, em que a fórmula prescritiva relaciona a acuidade de audição de um ouvinte ou gru- po de ouvintes a um ou mais parâmetros. Alternativamente, ou adicional- 5 mente, o ajuste de um ou mais parâmetros pode ser de acordo com as pre- ferências de um ou mais ouvintes.
De acordo com os aspectos acima mencionados da invenção o processamento pode incluir funções múltiplas atuando em paralelo. Cada uma das funções múltiplas pode operar em uma das faixas de frequência 10 múltipla. Cada uma das funções múltiplas pode fornecer, individualmente ou coletivamente, controle dinâmico de faixa, equalização dinâmica, estreita- mento espectral, transposição de frequência, extração de fala, redução de ruído, ou outra ação de aperfeiçoamento de fala. Por exemplo, o controle dinâmico de faixa pode ser provido por funções ou dispositivos múltiplos de 15 compressão/expansão, em que cada um processa uma região de frequência do sinal de audio.
A parte do processamento inclui ou não funções múltiplas atu- ando em paralelo, o processo pode prover controle dinâmico de faixa, equa- lização dinâmica, estreitamento espectral, transposição de frequência, extra- 20 ção de fala, redução de ruído, ou outra ação de aperfeiçoamento de fala. Por exemplo, o controle dinâmico de faixa pode ser provido por uma função ou dispositivo de compressão/expansão dinâmico de faixa.
Um aspecto da invenção é controlar o aperfeiçoamento da fala adequado para compensação de perda de audição de tal forma que, ideal- 25 mente, opera somente nas partes da fala de um programa de audio e não opera nas partes restante (não-fala) de programa, assim tendendo a não mudar o timbre (distribuição espectral) ou sonoridade percebida das partes restantes (não-fala) do programa.
De acordo com outro aspecto da invenção, aperfeiçoar a fala em audio de entretenimento inclui analisar o audio de entretenimento para clas- sificar segmentos de tempo do audio como sendo fala ou outro audio, e apli- car compressão dinâmica de faixa a uma ou múltiplas faixas de frequência do audio de entretenimento durante segmentos de tempo classificados como fala.
Descrição Dos Desenhos
A Figura 1a é um diagrama de bloco funcional esquemático ilus- trando uma implementação exemplificativa de aspectos da invenção.
A Figura 1b é um diagrama de bloco funcional esquemático mos- trando uma implementação exemplificativa de uma versão modificada da Figura 1a na qual dispositivos e/ou funções podem ser separados temporal- mente e/ou espacialmente.
A Figura 2 é um diagrama de bloco funcional esquemático mos-
trando uma implementação exemplificativa de uma versão modificada da Figura 1a na qual o controle de aperfeiçoamento da fala é derivado de uma maneira de "olhar adiante".
As Figuras 3a-c são exemplos de transformações de ganho de potência úteis no entendimento do exemplo da Figura 4.
A Figura 4 é um diagrama de bloco funcional esquemático mos- trando como o ganho no aperfeiçoamento da fala em uma faixa de frequên- cia pode ser derivado da estimativa de potência do sinal daquela faixa de acordo com aspectos da invenção.
Melhor Modo Para Executar a Invenção.
As técnicas para classificar audio em fala e não-fala (como mú- sica) são conhecidas na técnica e são às vezes conhecidas como um dis- criminador de fala-versus-outro ("SVO"). Ver, por exemplo, as Patentes US 6,785,645 e 6,570,991 como também os Pedidos de Patente Publicados US 25 20040044525, e as referências contidas nelas. Os discriminadores de audio fala-versus-outros analisam segmentos de tempo de um sinal de audio e extraem um ou mais descritores de sinal (características) de todo segmento de tempo. Tais características são passadas a um processador que tanto produz uma estimativa de probabilidade do segmento de tempo ser fala, 30 quanto toma uma árdua decisão de fala/não-fala. A maioria das característi- cas refletem a evolução de um sinal com o passar do tempo. Exemplos típi- cos de características são a taxa na qual o espectro de sinal muda com o passar do tempo ou a inclinação da distribuição da taxa na qual a polaridade do sinal muda. Para refletir as características distintas da fala confiavelmen- te, os segmentos de tempo devem ser de comprimento suficiente. Devido a que muitas características são baseadas em características de sinal que re- fletem as transições entre sílabas adjacentes, os segmentos de tempo tipi- camente cobrem pelo menos a duração de duas sílabas (isto é, mais ou me- nos 250 ms) para capturar uma tal transição. Porém, segmentos de tempo são frequentemente mais longos (por exemplo, por um fator de cerca de 10) obter estimativas mais confiáveis. Embora relativamente lento em operação, os SVOs são razoavelmente confiáveis e precisos em classificar audio em fala e não-fala. Porém, para aperfeiçoar a fala seletivamente, em um pro- grama de audio de acordo com aspectos da presente invenção, é desejável controlar o aperfeiçoamento da fala em uma escala de tempo mais fina do que a duração dos segmentos de tempo analisados por um discriminador de fala-versus-outro.
Outra classe de técnicas, algumas vezes conhecidas como de- tectores de atividade de voz (VADs) indicam a presença ou ausência da fala em um fundo de ruído relativamente estável. Os VADs são usados extensi- vamente como parte de esquemas de redução de ruído em aplicações de 20 comunicação da fala. Diferentemente dos discriminadores fala-versus- outros, os VADs normalmente tem uma resolução temporal que é adequada para o controle de aperfeiçoamento da fala conforme aspectos da presente invenção. Os VADs interpretam um aumento súbito da potência de sinal co- mo o início de um som da fala e uma diminuição súbita da potência de sinal 25 como o fim de um som de fala. Fazendo assim, eles sinalizam a demarcação entre fala e fundo quase instantaneamente (isto é, dentro de uma janela de integração temporal para medir a potência de sinal, por exemplo, mais ou menos 10 ms). No entanto, devido a que os VADs reagem a qualquer mu- dança súbita da potência de sinal, eles não podem diferenciar entre fala e 30 outros sinais dominantes, tal como música. Portanto, se usados sozinhos, os VADs não são adequados para controlar o aperfeiçoamento da fala para a- perfeiçoar a fala seletivamente de acordo com a presente invenção. É um aspecto da invenção combinar a especificidade fala versus não-fala de discriminadores fala-versus-outro (SVO) com a acuidade tempo- ral de detectores de atividade de voz (VADs) para facilitar o aperfeiçoamento da fala que responde seletivamente a fala em um sinal de audio com uma 5 resolução temporal que é mais fina do que a encontrada em discriminadores de fala-versus-outro da técnica anterior.
Embora, em princípio, aspectos da invenção possam ser imple- mentados em domínios analógicos e/ou digitais, implementações práticas são prováveis de serem implementadas no domínio digital em que cada um dos sinais de audio são representados por amostras individuais ou amostras dentro de blocos de dados.
Referindo-se agora à Figura 1a, é mostrado um diagrama de bloco funcional esquemático ilustrando aspectos da invenção na qual um sinal de entrada de audio 1 é passado para uma função ou dispositivo de 15 aperfeiçoamento da fala ("Aperfeiçoamento da Fala ') 102 que, quando habi- litado por um sinal de controle 103, produz um sinal de saída de audio de fala aperfeiçoada 104. O sinal de controle é gerado por uma função ou dis- positivo de controle "Controlador de Aperfeiçoamento da Fala") 105 que ope- ra em segmentos de tempo armazenados em buffer do sinal de entrada de 20 áudio 101. O Controlador de Aperfeiçoamento da Fala 105 inclui uma função ou dispositivo discriminador de fala-versus-outro ("SVO") 107 e um conjunto de um ou mais funções ou dispositivos detectores de atividade ("VAD") 108. O SVO 107 analisa o sinal ao longo de uma duração de tempo que é mais longa do que aquela analisada pelo VAD. O fato de que o SVO 107 e o VAD 25 108 operam ao longo do tempo com durações de tempo de comprimentos diferentes é ilustrado por meio da ilustração de um parêntese acessando uma região larga (associado com o SVO 107) e outro parêntese acessando uma região mais estreita (associado com o VAD 108) de uma função ou dis- positivo de armazenamento de ("Buffer") 106. A região larga e a região mais 30 estreita são esquemáticas e não em escala. No caso de uma implementação digital em que os dados de audio são transportados em blocos, cada parte do Buffer 106 pode armazenar um bloco de dados de audio. A região aces- sada pelo VAD inclui as partes mais recentes do armazenamento de sinal no Buffer 106. A probabilidade da seção de sinal atual ser fala, como determi- nado pelo SVO 107, serve para controlar 109 o VAD 108. Por exemplo, ele pode controlar um critério de decisão do VAD 108, assim desviando as deci- 5 sões do VAD.
O buffer 106 simboliza memória inerente ao processamento e pode ou não pode ser implementada diretamente. Por exemplo, se o proces- samento é executado em um sinal de audio que é armazenado em um meio com acesso de memória randomica, aquele meio pode servir como buffer. 10 Similarmente, a história da entrada de audio pode ser refletida no estado interno do discriminador de fala-versus-outro 107 e o estado interno do de- tector de atividade de voz, em cujo caso nenhum buffer separado é necessi- tado.
O aperfeiçoamento da fala 102 pode ser composto de múltiplos 15 dispositivos ou funções de processamento de audio que trabalham em para- lelo para aperfeiçoar a fala. Cada dispositivo ou função pode operar em uma região de frequência do sinal de audio em que a fala é para ser aperfeiçoa- da. Por exemplo, os dispositivos ou funções podem prover, individualmente ou como um todo, controle dinâmico de faixa, equalização dinâmica, estrei-
tamento espectral, transposição de frequência, extração da fala, redução de ruído, ou outra ação de aperfeiçoar fala. Nos exemplos detalhados de aspec- tos da invenção, o controle dinâmico de faixa provê compressão e/ou expan- são em faixas de frequência do sinal de audio. Deste modo, por exemplo, o aperfeiçoamento da Fala 102 pode ser um banco de compresso- 25 res/expansores de faixa ou funções de compressão/expansão dinâmica, em que cada um processa uma região de frequência do sinal de audio (um compressor/expansor ou função de compressão/expansão de faixa múltipla). A especificidade de frequência disposta por compressão/expansão de faixa múltipla é útil não somente porque ela permite costurar o padrão de aperfei- 30 çoamento da fala ao padrão de uma dada perda de audição, mas também porque permite responder ao fato de que em qualquer dado momento pode estar presente fala em uma região de frequência mas ausente em outra. Para tomar vantagem plena da especificidade de frequência ofe- recida por compressão de faixa múltipla, cada faixa de compres- são/expansão pode ser controlada por seu próprio detector de atividade de voz ou função de detecção de voz. Em tal caso, cada detector de atividade 5 de voz ou função de detecção de voz pode sinalizar atividade de voz na re- gião de frequência associada com a faixa de compressão/expansão que ele controla. Embora existam vantagens no Aperfeiçoamento da Fala 102 sendo composto de vários dispositivos ou funções de processamento de audio que trabalham em paralelo, simples versões de aspectos da invenção podem 10 empregar um Aperfeiçoamento da Fala 2 que é composto de somente um dispositivo ou função de processamento de audio.
Até mesmo quando existem muitos detectores de atividade de voz, pode haver somente um discriminador de fala-versus-outro 107 gerando uma saída única 9 para controlar todos os detectores de atividade de voz 15 que estão presentes. A escolha para usar somente um discriminador de fala- versus-outro reflete duas observações. Uma é que a taxa em que o padrão de banda passante da atividade de voz muda com o tempo é tipicamente muito mais rápida do que a resolução temporal do discriminador de fala- versus-outro. A outra observação é que as características usadas pelo dis- 20 criminador de fala-versus-outro são tipicamente derivadas de características espectrais que podem ser observadas melhor em um sinal de banda larga. Ambas as observações tornam o uso de discriminadores de fala de faixa específica-versus-outro impraticáveis.
Uma combinação de SVO 107 e VAD 108 como ilustrada no Controlador de Aperfeiçoamento da Fala 105 pode ser também usado para propósitos outros do que para aperfeiçoar fala, por exemplo para estimar a sonoridade da fala em um programa de audio, ou para medir a taxa de fala.
O esquema de aperfeiçoamento da fala acabado de ser descrito pode ser desdobrado de muitas formas. Por exemplo, o esquema inteiro po- de ser implementado dentro de uma televisão ou um conversor set-top box para operar sobre o sinal de audio recebido de uma radiodifusão de televi- são. Alternativamente, pode ser integrado com um codificador perceptivo de audio (por exemplo, AC-3 ou AAC) ou ele pode ser integrado com uma codi- ficador de audio sem perda.
Aperfeiçoamento da Fala de acordo com aspectos da presente invenção podem ser executados em tempos diferentes ou em lugares dife- 5 rentes. Considere um exemplo no qual o aperfeiçoamento da fala é integra- do ou associado com um codificador de audio ou processamento de codifi- cação. Em tal caso, a parte do discriminador de fala-versus outro (SVO) 107 do Controlador de Aperfeiçoamento da Fala 105, o qual é frequentemente computavelmente caro, pode ser integrado ou associado com o codificador 10 de audio ou processamento de codificação. A saída 109 do SVO1 por exem- plo uma bandeira indicando a presença de fala, pode ser embutida na cor- rente de audio codificada. Tal informação embutida em um fluxo de audio codificado é frequentemente referido como meta dados. O Aperfeiçoamento da fala 102 e o VAD 108 do Controlador do Aperfeiçoamento da Fala 105 15 pode ser integrado ou associado com um decodificador de audio e operar no audio previamente codificado. O conjunto de um ou mais detectores de ativi- dade de voz (VAD) 108 usa também a saída 109 do discriminador de fala- versus-outro (SVO) 107, que ele extrai do fluxo de audio codificado.
A Figura Ib mostra uma implementação exemplificativa de uma tal versão modificada da Figura 1a. Dispositivos ou funções na Figura 1b que correspondem àquelas na Figura 1 recebem os mesmos números de refe- rência. O sinal de entrada de audio 101 é passado para um codificador ou função de codificação ("codificador") 110 e a um Buffer 106 que cobre a du- ração de tempo requerida pelo SVO 107. O codificador 110 pode ser parte de um sistema perseptivo ou de codificação sem perda. A saída do codifica- dor 110 é passada para um multiplexador ou função de multiplexar ("Múlti- plexador") 112. A saída do SVO (109 na Figura 1a) é mostrada como sendo aplicada 109a ao codificador 110 ou, alternativamente, aplicada 109b ao Multiplexador 112 que recebe também a saída do codificador 110. A saída do SVO1 tal como uma bandeira como na Figura 1a, é tanto transportada na saída de fluxo de bits do codificador 110 (como metadados, por exemplo) ou é multiplexado com a saída de codificador 110 para prover um pacote e fluxo de bits montado 114 para armazenamento ou transmissão a um demultiple- xador ou função de demultiplexar ("Demultiplexador") 116 que desempacota o fluxo de bits 114 para passar a um decodificador ou uma função de decodi- ficação 118. Se a saída do SVO 107 foi passada 109b para ao Multiplexador 5 112, então ela é recebida 109b' do Demultiplexador 116 e passada ao VAD 108. Alternativamente, se a saida do SVO 107 foi passada 109a para o codi- ficador 110, então ela é recebida 109a' do Decodificador 118. Como no e- xemplo da Figura 1a, o VAD 108 pode compreender múltiplas funções ou dispositivos de atividade de voz. Uma função ou dispositivo de buffer de si- 10 nal ("Buffer") 120 alimentado pelo Decodificador 118 que cobre a duração de tempo requerida pelo VAD 108 prove outra alimentação para o VAD 108. A saída do VAD 103 é passada para um Aperfeiçoamento de fala 102 que pro- ve a saída de audio de fala aperfeiçoada como na Figura 1a. Embora mos- trada separadamente por clareza na apresentação, o SVO 107 e/ou Buffer 15 106 pode ser integrado com o codificador 110. Semelhantemente, embora mostrada separadamente por clareza na apresentação, o VAD 108 e/ou Buf- fer 120 podem ser integrados com o Decodificador 118 ou Aperfeiçoamento de fala 102.
Se o sinal de audio a ser processado foi pré-gravado, por exem- 20 pio como quando reproduzindo de um DVD em uma casa do consumidor ou quando processando fora de linha em um ambiente de radiodifusão, o dis- criminador de fala-versus-outro e/ou o detector de atividade de voz podem operar em seções de sinal que incluem partes de sinal que, durante a repro- dução, acontece depois da amostra sinal atual ou bloco de sinal. Isto é ilus- 25 trado na Figura 2, onde o buffer de sinal simbólico 201 contém seções de sinal que, durante a reprodução, acontece depois da amostra de sinal atual ou bloco de sinal ("olhar adiante"). Ainda que o sinal não esteve pré- gravado, olhar adiante pode ainda ser usado quando o codificador de audio tem um atrazo de processamento inerente significativo.
Os parâmetros de processamento de Aperfeiçoamento de fala
102 podem ser atualizados em resposta ao sinal de audio processado em uma taxa que é mais baixa do que a taxa de resposta dinâmica do compres- sor. Existem vários objetivos que se pode perseguir quando atualizando os parâmetros de processador. Por exemplo, o parâmetro de processamento de função de ganho do processador de aperfeiçoamento de fala pode ser ajus- tado em resposta ao nível médio da fala do programa para assegurar que a 5 mudança do espectro médio de fala de longo prazo é independente do nível da fala. Para entender o efeito de tal ajuste e a necessidade dele, considere o exemplo seguinte. O aperfeiçoamento da fala é aplicado somente a uma parte de frequência alta de um sinal. Em um dado nível médio da fala, a es- timativa de potência 301 da parte de sinal de frequência alta é a média P1, 10 onde P1 é maior do que a potência limite de compressão 304. O ganho as- sociado com esta estimativa de potência é G1, que é o ganho médio aplica- do à parte de alta frequência do sinal. Devido a que a parte de baixa fre- quência não recebe nenhum ganho, o espectro médio da fala é conformado para ser G1 dB mais alto nas frequências altas do que nas frequências bai- 15 xas. Agora considera-se o que acontece quando o nível médio da fala au- menta por uma certa quantia, AL. Um aumento do nível médio da fala por AL dB aumenta a estimativa de potência média 301 da parte de sinal de alta frequência para P2 = P1 + AL. Como pode ser visto da Figura 3a, a estimati- va de potência mais alta P2 dá aumento a um ganho, G2 que é menor do 20 que G1 . Consequentemente, o espectro médio da fala do sinal processado mostra a ênfase menor de frequência alta quando o nível médio da entrada é alto do que quando ele é baixo. Devido a que ouvintes compensam para di- ferenças no nível médio da fala com seu controle de volume, a dependência de nível da ênfase de alta frequência média é indesejável. Pode ser elimina- 25 da modificando a curva de ganho das Figuras 3a-c em resposta ao nível médio da fala. As Figuras 3a-c são discutidas abaixo.
Os parâmetros de processamento de Aperfeiçoamento de fala 102 podem ser também ajustados para assegurar que uma métrica de inteli- gibilidade da fala é ou maximizada ou impulsionada acima de um nível limite 30 desejado. A métrica de inteligibilidade da fala pode ser computada dos níveis relativos do sinal de audio e um som competindo no ambiente de escutar (tal como ruído de cabina de aeronave). Quando o sinal de audio é um sinal de audio de multicanal com fala em um canal e sinais de não-fala nos canais restantes, a métrica de inteligibilidade da fala pode ser computada, por e- xemplo, dos níveis relativos de todos os canais e a distribuição de energia espectral neles. Métricas de inteligibilidade adequadas são bem-conhecidas 5 [por exemplo, ANSI S3.5-1997 "Method for Calculation of the Speech Intelli- gibility Index", American National Standards Institute, 1997; ou Musch e Buus, "Using statistical decision theory to predict speech inteligibility" J Mo- del Structure," Journal of the Acoustical Society of America, (2001) 109, pp 2896 - 2909],
Aspectos da invenção mostrados nos diagramas de bloco fun-
cional da Figura 1a e 1b e descritos aqui podem ser implementados como no exemplo das Figuras 3a-c e 4. neste exemplo, a amplificação de compres- são de conformar frequência de componentes da fala e liberação do proces- samento para os componentes de não-fala podem ser realizada através de 15 um processador dinâmico de faixa de multibanda (não mostrado) que im- plementa ambas as características compressivas e expansivas. Tal proces- sador pode ser caracterizado por um conjunto de funções de ganho. Cada função de ganho relaciona-se à potência de entrada em uma faixa de fre- quência para um ganho de faixa correspondente, a qual pode ser aplicada 20 aos componentes de sinal naquela faixa. Uma tal relação é ilustrada nas Fi- guras 3a-c.
Referindo-se à Figura 3a, a estimativa da potência de potência de entrada de faixa 301 é relacionada a um ganho de faixa desejado 302 por uma curva de ganho. Aquela curva de ganho é tomada como o mínimo de 25 duas curvas constituintes. Uma curva constituinte, mostrada pela linha sóli- da, tem uma característica de compressão com uma relação de compressão apropriadamente escolhida ("CR") 303 para estimativas de potência 301 a- cima de um limite de compressão 304 e um ganho constante para estimati- vas de potência abaixo do limite de compressão. A outra curva constituinte, 30 mostrada pela linha tracejada, tem uma característica expansiva com uma relação de expansão apropriadamente escolhida ("ER") 305 para estimativas de potência acima do limite de expansão 306 e um ganho de zero para a estimativas de potência abaixo. A curva de ganho final é tomada como o mí- nimo destas duas curvas constituintes.
O limite de compressão 304, a relação de compressão 303, e o ganho no limite de compressão são parâmetros fixos. Sua escolha determina como o envelope e espectro do sinal da fala são processados em uma faixa particular. Idealmente eles são selecionados de acordo com uma fórmula prescritiva que determina relações de ganho e compressão apropriadas em faixas respectivas para um grupo de ouvintes dada a sua acuidade de audi- ção. Um exemplo de tal fórmula prescritiva é NAL-NLI, que foi desenvolvida pelo Laboratório Nacional de Acústica, Austrália, e é descrita por H. Dillon em "Prescribing hearing aid performance" [H. Dillon (Ed.), Hearing Aids (pp. 249-261); Sydney; Boomerangue Press, 2001.] No entanto, eles podem ser também baseados simplesmente na preferência de ouvinte. O limite de com- pressão 304 e a relação de compressão 303 em uma faixa particular pode adicionalmente depender de parâmetros específicos para um dado programa de audio, tal como o nível médio de diálogo em uma trilha sonora de filme.
Considerando que o limite de compressão pode ser fixo, o limite de expansão 306 é preferencialmente adaptável e varia em resposta ao sinal de entrada. O limite de expansão pode assumir qualquer valor dentro da fai- 20 xa dinâmica do sistema, incluindo valores maiores do que o limite de com- pressão. Quando o sinal de entrada é dominado por fala, um sinal de contro- le descrito abaixo aciona o limite de expansão em direção a níveis baixos de forma que o nível de entrada é mais alto do que a faixa de estimativas de potências para as quais a expansão é aplicada (veja Figuras 3a e 3b). Na- 25 quela condição, os ganhos aplicados ao sinal são dominados pela caracte- rística de compressão do processador. A Figura 3b apresenta um exemplo de função de ganho representando tal condição.
Quando o sinal de entrada é dominado por audio diferente da fala, o sinal de controle aciona o limite de expansão para níveis altos de for- ma que o nível de entrada tende a ser mais baixo do que o limite de expan- são. Naquela condição a maioria dos componentes do sinal não recebe ne- nhum ganho. A Figura 3c apresenta um exemplo de função de ganho repre- sentando tal condição.
As estimativas de potência de faixa da discussão precedente podem ser derivadas analisando as saídas de um banco de filtro ou a saída de uma transformação de domínio de tempo-para-frequência, tal como a 5 DFT (transformada de Fourier discreta), MDCT (transformada de coseno discreta modificada) ou transformadas de wavelet. As estimativas de potên- cia podem ser também substituídas por medidas que são relacionadas à for- ça de sinal tal como o valor absoluto médio do sinal, a energia de Teager1 ou por medidas perceptivas tais como sonoridade. Adicionalmente, as estimati- 10 vas da potência de faixa podem ser suavizadas no tempo para controlar a taxa na qual ganho muda.
De acordo com um aspecto da invenção, o limite de expansão é idealmente colocado de tal forma que quando o sinal é de fala o nível de si- nal está acima da região expansiva da função de ganho e quando o sinal é 15 de audio diferente da fala o nível de sinal está abaixo da região expansiva da função de ganho. Como é explicado abaixo, isto pode ser obtido monitoran- do o nível de audio de não-fala e colocando o limite de expansão em relação àquele nível.
Certos monitores de nível da técnica anterior fixam um limite a- baixo do qual a expansão descendente (ou silenciador ("squelch")) é aplica- da como parte de um sistema de redução de ruído que busca discriminar entre ruído de audio desejável e indesejável. Veja, por exemplo, as Patentes US 3803357, 5263091,
5774557, e 6005953. Em contraste, aspectos da presente inven- 25 ção requerem diferenciar entre fala por um lado e todos os restantes sinais de audio, como música e efeitos, no outro. O ruído monitorado na técnica anterior é caracterizado por envelopes temporais e espectrais que flutuam muito menos do que aqueles de audios desejáveis. Adicionalmente, o ruído tem frequentemente formas espectrais distintivas que são conhecidas a prio- 30 ri. Tais características diferenciantes são exploradas por monitores de ruído na técnica anterior. Em contraste, aspectos da presente invenção monitoram o nível de sinais de audio de não-fala. Em muitos casos, tais sinais de audio de não-fala exibem variações em seu envelope e forma espectral que são pelo menos tão grandes quanto aqueles de sinais de audio da fala. Conse- quentemente, um monitor de nível empregado na presente invenção requer analisar características de sinal adequadas para a distinção entre audio de 5 fala e não-fala ao invés de entre fala e ruído.
A Figura 4 mostra como o ganho de aperfeiçoamento da fala em uma faixa de frequência pode ser derivado da estimativa de potência de si- nal daquela faixa. Referindo-se agora à Figura 4, uma representação de um sinal de uma faixa limitada 401 é passada para um estimador de potência ou 10 dispositivo de estimação ("Estimativa de Potência") 402 que gera uma esti- mativa de potência de sinal 403 naquela faixa de frequência. Aquela estima- tiva de potência de sinal é passada para uma transformação de potência para ganho ou função de transformação ("Curva de Ganho") 404, que pode ser da forma do exemplo ilustrado nas Figuras 3a-c. A transformação de po- 15 tência para-ganho ou função de transformação 404 gera um ganho de faixa 405 que pode ser usado para modificar a potência de sinal na faixa (não- mostrado).
A estimativa de potência de sinal 403 é também passada para um dispositivo ou função ("Monitor de Nível") 406 que monitora o nível de todos os componentes de sinal na faixa que são de não-fala. O monitor de nível 406 pode incluir um circuito ou função de manter mínimo vazamento ("Manter Mínimo") 407 com uma taxa de vazamento adaptável. Esta taxa de vazamento é controlada por uma constante de tempo 408 que tende a ser baixa quando a potência do sinal é dominada por fala e alta quando a potên- coa do sinal é dominado por audio diferente da fala. A constante de tempo 408 pode ser derivada de informação contida na estimativa de potência de sinal 403 na faixa. Especificamente, a constante de tempo pode ser monoto- nicamente relacionada à energia do envelope de sinal de faixa na faixa de frequência entre 4 e 8 Hz. Aquela característica pode ser extraída por um filtro de banda de passagem apropriadamente sintonizado ou função de fil- tragem ("Banda de passagem") 409.
A saída da Banda de passagem 409 pode ser relacionada à constante de tempo 408 por uma função de transferência ("Constante de Potência-para-Tempo") 410. A estimativa de nível dos componentes de não- fala 411, que é gerado pelo Monitorador de Nível 406, é a entrada para uma transformação ou função de transformação ("Limite de Potência-para- 5 Expansão") 412 que relaciona a estimativa do nível de fundo para um limite de expansão 414. A combinação do monitorador de nível 406, transformação 412, e expansão descendente (caracterizada pela relação de expansão 305) corresponde ao VAD 108 das Figuras 1a e 1b.
A transformação 412 pode ser uma simples adição, isto é, o Iimi- te de expansão 306 pode ser um número fixo de decibéis acima do nível es- timado do audio de não-fala 411. Alternativamente, a transformação 412 que relaciona o nível de fundo estimado 411 ao limite de expansão 306 pode de- pender de uma estimativa independente da probabilidade do sinal de banda que se fala 413. Deste modo, quando a estimativa 413 indica uma probabili- dade alta do sinal ser falada, o limite de expansão 306 é abaixado. Recipro- camente, quando a estimativa 413 indicar uma probabilidade baixa do sinal ser fala, o limite de expansão 306 é aumentado. A estimativa de probabilida- de de fala 413 pode ser derivada de uma única característica de sinal ou de uma combinação de características de sinal que distinguem fala de outros sinais. Ela corresponde à saída 109 da SVO 107 nas FIGS 1a e 1b.
Características de sinal adequados e métodos de processá-los para derivar uma estimativa de probabilidade de fala 413 são conhecidas por aqueles qualificados na técnica. Exemplos são descritos nas Patentes US 6,785,645 e 6,570,991, bem como também no pedido de patente 20040044525, e nas referências contidas nelas.
Incorporação por Referência
As seguintes patentes, pedidos e publicações de patentes, são por este meio incorporadas por referência, cada uma em sua totalidade.
Patente dos Estados Unidos 3,803,357; Sacks, 9 de abril de 1974, "Noise Filter".
Patente dos Estados Unidos 5,263,091; Waller, Jr., 16 de no- vembro de 1993, "Intelligent automatic threshold Circuit". Patente dos Estados Unidos 5,388,185; Terry, e outros, 7 de fe- vereiro de 1995, "System for adaptive Processing of telephone voice signals".
Patente dos Estados Unidos 5,539,806; Allen, e outros, 23 de julho de 1996, "Method for customer selection of telephone sound enhance- ment".
Patente dos Estados Unidos 5,774,557; Slater1 30 de junho de 1998, "Autotracking microphone squelch for aircraft intercom systems".
Patente dos Estados Unidos 6,005,953; Stuhlfelner, 21 de de- zembro de 1999, "Circuit arrangement for improving the signal-to-noise rati- o".
Patente dos Estados Unidos 6,061,431; Knappe, e outros, 9 de maio de 2000, "Method for hearing Ioss compensation in telephony systems based on telephone number resolution".
Patente dos Estados Unidos 6,570,991; Scheirer1 e outros, 27 de maio de 2003, "Multi-feature speech/music discrimination system".
Patente dos Estados Unidos 6,785,645; Khalil, e outros, 31 de agosto de 2004, "Real-time speech and music classifier".
Patente dos Estados Unidos 6,914,988; Irwan1 e outros, July 5, 2005, "Áudio reproducing device".
Pedido de Patente Publicado US 2004/0044525; Vinton1 Mark
Stuart, e outros, 4 de março de 2004 "Controlling Ioudness of speech in sig- nals that contain speech and other types of audio material".
"Dynamic Range Control via Metadata" by Charles Q.Robinson and Kenneth Gundry, Convention Paper 5028, 107th Audio Engineering So- ciety Convention, New York, 24-27 de setembro de 1999.
Implementação
A invenção pode ser implementada em hardware ou software, ou uma combinação de ambos (por exemplo, conjuntos lógicos programáveis). A menos que especificado em contrário, os algoritmos incluídos como parte 30 da invenção não são inerentemente relacionados a qualquer computador ou outro aparelho em particular. Em particular, várias máquinas de propósito geral podem ser usadas com programas escritos de acordo com o preceitos deste, ou pode ser mais conveniente construir aparelhos mais especializa- dos (por exemplo, circuitos integrados) para executar os passos requeridos pelo método. Deste modo, a invenção pode ser implementada em um ou mais programas de computador executando em um ou mais sistemas 5 de computador programáveis, cada um compreendendo pelo menos um pro- cessador, pelo menos um sistema de armazenamento de dados (incluindo memória volátil e não volátil e/ou elementos de armazenamento), pelo me- nos um dispositivo ou porta de entrada, e pelo menos um dispositivo ou por- ta de saída. O código de programa é aplicado aos dados de entrada execu- 10 tar as funções descritas aqui e gerar informação de saída. A informação de saída é aplicada a um ou mais dispositivos de saída, em um modo conheci- do.
Cada um de tais programas pode ser implementado em qualquer linguagem de computador desejada (incluindo, de máquina, de montagem, ou procedimento de alto nível, lógica, ou linguagens de programação orien- tadas a objeto) para comunicar com um sistema de computador. Em qual- quer caso, a linguagem pode ser uma linguagem compilada ou interpretada.
Cada um de tais programas de computador é preferencialmente armazenado em um meio ou dispositivo de armazenamento ou carregado 20 nele (por exemplo, memória de estado sólido, ou meio magnético ou ótico) legível por um computador programável de propósito geral ou especial, para configurar e operar o computador quando o meio ou dispositivo de armaze- namento é lido pelo sistema de computador para executar os procedimentos descritos aqui. O sistema inventivo pode ser também considerado para ser 25 implementado como um meio de armazenamento legível por computador, configurado com um programa de computador, onde o meio de armazena- mento assim configurado causa um sistema de computador a operar em uma maneira específica e predefinida para executar as funções descritas aqui.
Foram descritas um grande numero de versões da invenção.
Não obstante, será entendido que várias modificações possam ser feitas sem se afastar do espírito e escopo da invenção. Por exemplo, alguns dos passos descritos aqui podem ser independente de oredem, e deste modo podem ser executados em uma ordem diferente daquela descrita.

Claims (17)

1. Método para aperfeiçoar a fala em audio de entretenimento, compreendendo processar, em resposta a um ou mais controles, o dito au- dio de entretenimento para aperfeiçoar a clareza e inteligibilidade de partes da fala do audio de entretenimento, o dito processamento incluindo variar o nível do audio de entretenimento em cada uma das fai- xas de frequência múltipla de acordo com uma característica de ganho que relaciona o nível de sinal de faixa ao ganho, e gerar um controle para variar a dita característica de ganho em cada faixa de frequência, o dito gerador incluindo caracterizar segmentos de tempo do dito áudio de entreteni- mento como (a) fala ou não-fala ou (b) como provável para ser fala ou não- fala, em que as dita caracterizações eperam em uma única faixa de frequên- cia banda larga, obter, em cada uma das faixas da dita frequência múltipla, uma medida de flutuações em níveis da fala, monitorar, em cada uma das faixas da dita frequência múltipla, o mínimo do nível de áudio na faixa, o tempo de resposta do monitoramento respondendo à dita medida de flutuações nos níveis da fala, transformar o mínimo monitorado em cada faixa em um corres- pondente nível de limite adaptativo, e desviar cada dito correspondente nível de limite adaptativo com o resultado da dita caracterização para produzir o dito controle para cada faixa.
2. Método para aperfeiçoar a fala em audio de entretenimento, compreendendo processar, em resposta a um ou mais controles, o dito au- dio de entretenimento para aperfeiçoar a clareza e inteligibilidade de partes da fala do audio de entretenimento, o dito processamento incluindo variar o nível do audio de entretenimento em cada uma das faixas de frequência múl- tipla, de acordo com uma característica de ganho que relaciona nível de si- nal de faixa a ganho, e gerar um controle para variar a dita característica de ganho em cada faixa de frequência, o dito gerador incluindo receber caracte- rizações de segmentos de tempo do dito audio de entretenimento como (a) fala ou não-fala ou (b) como provável para ser fala ou não-fala, em que as dita caracterizações referem-se a uma uma única faixa de frequência de banda larga, obter, em cada uma das faixas da dita frequência múltipla, uma medida de flutuações em níveis da fala, monitorar, em cada uma das faixas da dita frequência múltipla, o mínimo do nível de audio na faixa, o tempo de resposta do monitoramento respondendo à dita medida de flutuações nos níveis da fala, transformar o minimo monitorado em cada faixa em um cor- respondente nível de limite adaptativo, e desviar cada dito correspondente nível de limite adaptativo com o resultado da dita caracterização para produ- zir o dito controle para cada faixa.
3. Método de acordo com a reivindicação 1 ou 2, em que existe acesso a uma evolução de tempo do audio de entretenimento antes e depois de um ponto de processamento, e em que a dita geração de um controle responde a pelo menos algum audio depois do ponto de processamento.
4. Método de acordo com qualquer uma das reivindicações 1 a 3 em que o dito processamento opera de acordo com um ou mais parâmetros de processamento.
5. Método de acordo com a reivindicação 4, em que o ajuste de um ou mais parâmetros é em resposta ao audio de entretenimento de tal forma que uma métrica inteligibilidade da fala do audio processado é tanto maximizado quanto impulsionado acima de um nível de limite desejado.
6. Método de acordo com a reivindicação 5, em que o audio de entretenimento compreende múltiplos canais de audio nos quais um canal é principalmente de fala e o ou mais outros canais são principalmente de não- fala, em que a métrica da inteligibilidade da fala é baseada no n'vel do canal da fala e o nível no um ou mais outros canais.
7. Método de acordo com a reivindicação 5 ou 6, em que a mé- trica de inteligibilidade da fala é também baseada no nível de ruído em um ambiente de escutar em que o audio processado é reproduzido.
8. Método de acordo com qualquer uma das reivindicações 4 a 7, em que o ajuste de um ou mais parâmetros é em resposta a um ou mais descritores de longo prazo do audio de entretenimento.
9. Método de acordo com a reivindicação 8, em que um descritor de termo longo é o nível médio de diálogo do áudio de entretenimento.
10. Método de acordo com a reivindicação 8 ou 9, em que um descriptor de longo termo é uma estimativa de processamento já aplicada ao áudio de entretenimento.
11. Método de acordo com a reivindicação 4, em que o ajuste de um ou mais parâmetros está de acordo com uma fórmula prescritiva, em que a fórmula prescritiva relaciona a acuidade de audição de um ouvinte ou gru- po de ouvintes ao um ou mais parâmetros.
12. Método de acordo com a reivindicação 4, em que o ajuste de um ou mais parâmetros está de acordo com as preferências de um ou mais ouvintes.
13. Método de acordo com qualquer uma das reivindicações 1 a12, em que o dito processamento provê controle dinâmico de faixa, equali- zação dinâmica, estreitamento espectral, extração da fala, redução de ruído, ou outra ação de aperfeiçoar a fala.
14. Método de acordo com a reivindicação 13, em que o controle dinâmico de faixa é provido por uma função de compressão/expansão de faixa.
15. Aparelho compreendendo meios adaptados para executar o método como definido em qualquer uma das reivindicações 1 a 14.
16. Programa de computador, armazenado em um meio legível de computador para causar a um computador executar o método como defi- nido em qualquer uma das reivindicações 1 a 14.
17. Meio legível de computador armazenando nele o programa de computador executando o método como definido em qualquer uma das reivindicações 1 a 14.
BRPI0807703-7A 2007-02-26 2008-02-20 Método para aperfeiçoar a fala em áudio de entretenimento e meio de armazenamento não-transitório legível por computador BRPI0807703B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US90339207P 2007-02-26 2007-02-26
US60/903,392 2007-02-26
PCT/US2008/002238 WO2008106036A2 (en) 2007-02-26 2008-02-20 Speech enhancement in entertainment audio

Publications (2)

Publication Number Publication Date
BRPI0807703A2 true BRPI0807703A2 (pt) 2014-05-27
BRPI0807703B1 BRPI0807703B1 (pt) 2020-09-24

Family

ID=39721787

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0807703-7A BRPI0807703B1 (pt) 2007-02-26 2008-02-20 Método para aperfeiçoar a fala em áudio de entretenimento e meio de armazenamento não-transitório legível por computador

Country Status (8)

Country Link
US (8) US8195454B2 (pt)
EP (1) EP2118885B1 (pt)
JP (2) JP5530720B2 (pt)
CN (1) CN101647059B (pt)
BR (1) BRPI0807703B1 (pt)
ES (1) ES2391228T3 (pt)
RU (1) RU2440627C2 (pt)
WO (1) WO2008106036A2 (pt)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100789084B1 (ko) * 2006-11-21 2007-12-26 한양대학교 산학협력단 웨이블릿 패킷 영역에서 비선형 구조의 과중 이득에 의한음질 개선 방법
JP5530720B2 (ja) 2007-02-26 2014-06-25 ドルビー ラボラトリーズ ライセンシング コーポレイション エンターテイメントオーディオにおける音声強調方法、装置、およびコンピュータ読取り可能な記録媒体
KR101597375B1 (ko) 2007-12-21 2016-02-24 디티에스 엘엘씨 오디오 신호의 인지된 음량을 조절하기 위한 시스템
US8639519B2 (en) * 2008-04-09 2014-01-28 Motorola Mobility Llc Method and apparatus for selective signal coding based on core encoder performance
JP5341983B2 (ja) * 2008-04-18 2013-11-13 ドルビー ラボラトリーズ ライセンシング コーポレイション サラウンド体験に対する影響を最小限にしてマルチチャンネルオーディオにおけるスピーチの聴覚性を維持するための方法及び装置
US8712771B2 (en) * 2009-07-02 2014-04-29 Alon Konchitsky Automated difference recognition between speaking sounds and music
CN102498514B (zh) * 2009-08-04 2014-06-18 诺基亚公司 用于音频信号分类的方法和装置
US8538042B2 (en) 2009-08-11 2013-09-17 Dts Llc System for increasing perceived loudness of speakers
CN102576562B (zh) 2009-10-09 2015-07-08 杜比实验室特许公司 自动生成用于音频占优性效果的元数据
KR20120091068A (ko) 2009-10-19 2012-08-17 텔레폰악티에볼라겟엘엠에릭슨(펍) 음성 활성 검출을 위한 검출기 및 방법
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
DK2352312T3 (da) * 2009-12-03 2013-10-21 Oticon As Fremgangsmåde til dynamisk undertrykkelse af omgivende akustisk støj, når der lyttes til elektriske input
TWI459828B (zh) * 2010-03-08 2014-11-01 Dolby Lab Licensing Corp 在多頻道音訊中決定語音相關頻道的音量降低比例的方法及系統
CN104242853B (zh) 2010-03-18 2017-05-17 杜比实验室特许公司 用于具有音质保护的失真减少多频带压缩器的技术
US8473287B2 (en) 2010-04-19 2013-06-25 Audience, Inc. Method for jointly optimizing noise reduction and voice quality in a mono or multi-microphone system
US8538035B2 (en) 2010-04-29 2013-09-17 Audience, Inc. Multi-microphone robust noise suppression
JP5834449B2 (ja) * 2010-04-22 2015-12-24 富士通株式会社 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法
US8781137B1 (en) 2010-04-27 2014-07-15 Audience, Inc. Wind noise detection and suppression
US8447596B2 (en) 2010-07-12 2013-05-21 Audience, Inc. Monaural noise suppression based on computational auditory scene analysis
JP5652642B2 (ja) * 2010-08-02 2015-01-14 ソニー株式会社 データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
KR101726738B1 (ko) * 2010-12-01 2017-04-13 삼성전자주식회사 음성처리장치 및 그 방법
EP2469741A1 (en) * 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
DK3067888T3 (en) 2011-04-15 2017-07-10 ERICSSON TELEFON AB L M (publ) DECODES FOR DIMAGE OF SIGNAL AREAS RECONSTRUCTED WITH LOW ACCURACY
US8918197B2 (en) 2012-06-13 2014-12-23 Avraham Suhami Audio communication networks
FR2981782B1 (fr) * 2011-10-20 2015-12-25 Esii Procede d’envoi et de restitution sonore d’informations audio
JP5565405B2 (ja) * 2011-12-21 2014-08-06 ヤマハ株式会社 音響処理装置および音響処理方法
US20130253923A1 (en) * 2012-03-21 2013-09-26 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Multichannel enhancement system for preserving spatial cues
CN103325386B (zh) * 2012-03-23 2016-12-21 杜比实验室特许公司 用于信号传输控制的方法和系统
WO2013150340A1 (en) * 2012-04-05 2013-10-10 Nokia Corporation Adaptive audio signal filtering
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
US8843367B2 (en) * 2012-05-04 2014-09-23 8758271 Canada Inc. Adaptive equalization system
EP2898506B1 (en) 2012-09-21 2018-01-17 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
JP2014106247A (ja) * 2012-11-22 2014-06-09 Fujitsu Ltd 信号処理装置、信号処理方法および信号処理プログラム
DE13750900T1 (de) * 2013-01-08 2016-02-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verbesserung der Sprachverständlichkeit bei Hintergrundrauschen durch SII-abhängige Amplifikation und Kompression
JP6173484B2 (ja) * 2013-01-08 2017-08-02 ドルビー・インターナショナル・アーベー 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測
CN103079258A (zh) * 2013-01-09 2013-05-01 广东欧珀移动通信有限公司 一种提高语音识别准确性的方法及移动智能终端
US9933990B1 (en) 2013-03-15 2018-04-03 Sonitum Inc. Topological mapping of control parameters
US10506067B2 (en) 2013-03-15 2019-12-10 Sonitum Inc. Dynamic personalization of a communication session in heterogeneous environments
CN104080024B (zh) 2013-03-26 2019-02-19 杜比实验室特许公司 音量校平器控制器和控制方法以及音频分类器
CN104079247B (zh) 2013-03-26 2018-02-09 杜比实验室特许公司 均衡器控制器和控制方法以及音频再现设备
CN104078050A (zh) 2013-03-26 2014-10-01 杜比实验室特许公司 用于音频分类和音频处理的设备和方法
EP2992605B1 (en) 2013-04-29 2017-06-07 Dolby Laboratories Licensing Corporation Frequency band compression with dynamic thresholds
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
EP3014609B1 (en) 2013-06-27 2017-09-27 Dolby Laboratories Licensing Corporation Bitstream syntax for spatial voice coding
US9031838B1 (en) 2013-07-15 2015-05-12 Vail Systems, Inc. Method and apparatus for voice clarity and speech intelligibility detection and correction
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
CN103413553B (zh) 2013-08-20 2016-03-09 腾讯科技(深圳)有限公司 音频编码方法、音频解码方法、编码端、解码端和系统
CN105493182B (zh) * 2013-08-28 2020-01-21 杜比实验室特许公司 混合波形编码和参数编码语音增强
CN111580772B (zh) * 2013-10-22 2023-09-26 弗劳恩霍夫应用研究促进协会 用于音频设备的组合动态范围压缩和引导截断防止的构思
JP6361271B2 (ja) * 2014-05-09 2018-07-25 富士通株式会社 音声強調装置、音声強調方法及び音声強調用コンピュータプログラム
CN105336341A (zh) 2014-05-26 2016-02-17 杜比实验室特许公司 增强音频信号中的语音内容的可理解性
US9978388B2 (en) 2014-09-12 2018-05-22 Knowles Electronics, Llc Systems and methods for restoration of speech components
CN113257274A (zh) 2014-10-01 2021-08-13 杜比国际公司 高效drc配置文件传输
US10163446B2 (en) 2014-10-01 2018-12-25 Dolby International Ab Audio encoder and decoder
US10163453B2 (en) 2014-10-24 2018-12-25 Staton Techiya, Llc Robust voice activity detector system for use with an earphone
CN104409081B (zh) * 2014-11-25 2017-12-22 广州酷狗计算机科技有限公司 语音信号处理方法和装置
JP6501259B2 (ja) * 2015-08-04 2019-04-17 本田技研工業株式会社 音声処理装置及び音声処理方法
EP3203472A1 (en) * 2016-02-08 2017-08-09 Oticon A/s A monaural speech intelligibility predictor unit
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
RU2620569C1 (ru) * 2016-05-17 2017-05-26 Николай Александрович Иванов Способ измерения разборчивости речи
RU2676022C1 (ru) * 2016-07-13 2018-12-25 Общество с ограниченной ответственностью "Речевая аппаратура "Унитон" Способ повышения разборчивости речи
US10362412B2 (en) * 2016-12-22 2019-07-23 Oticon A/S Hearing device comprising a dynamic compressive amplification system and a method of operating a hearing device
WO2018152034A1 (en) * 2017-02-14 2018-08-23 Knowles Electronics, Llc Voice activity detector and methods therefor
EP3662470B1 (en) 2017-08-01 2021-03-24 Dolby Laboratories Licensing Corporation Audio object classification based on location metadata
WO2019027812A1 (en) 2017-08-01 2019-02-07 Dolby Laboratories Licensing Corporation CLASSIFICATION OF AUDIO OBJECT BASED ON LOCATION METADATA
EP3477641A1 (en) * 2017-10-26 2019-05-01 Vestel Elektronik Sanayi ve Ticaret A.S. Consumer electronics device and method of operation
EP3827429A4 (en) * 2018-07-25 2022-04-20 Dolby Laboratories Licensing Corporation COMPRESSOR TARGET CURVE TO AVOID AMPLIFICATION NOISE
US11335357B2 (en) * 2018-08-14 2022-05-17 Bose Corporation Playback enhancement in audio systems
CN110875059B (zh) * 2018-08-31 2022-08-05 深圳市优必选科技有限公司 收音结束的判断方法、装置以及储存装置
US10795638B2 (en) * 2018-10-19 2020-10-06 Bose Corporation Conversation assistance audio device personalization
US11164592B1 (en) * 2019-05-09 2021-11-02 Amazon Technologies, Inc. Responsive automatic gain control
US11146607B1 (en) * 2019-05-31 2021-10-12 Dialpad, Inc. Smart noise cancellation
CN114503197B (zh) * 2019-08-27 2023-06-13 杜比实验室特许公司 使用自适应平滑的对话增强
RU2726326C1 (ru) * 2019-11-26 2020-07-13 Акционерное общество "ЗАСЛОН" Способ повышения разборчивости речи пожилыми людьми при приеме звуковых программ на наушники
KR20220108076A (ko) * 2019-12-09 2022-08-02 돌비 레버러토리즈 라이쎈싱 코오포레이션 잡음 메트릭 및 스피치 명료도 메트릭에 기초한 오디오 및 비-오디오 특징의 조정
WO2021183916A1 (en) * 2020-03-13 2021-09-16 Immersion Networks, Inc. Loudness equalization system
WO2021195429A1 (en) * 2020-03-27 2021-09-30 Dolby Laboratories Licensing Corporation Automatic leveling of speech content
CN115699172A (zh) 2020-05-29 2023-02-03 弗劳恩霍夫应用研究促进协会 用于处理初始音频信号的方法和装置
TW202226225A (zh) * 2020-10-27 2022-07-01 美商恩倍科微電子股份有限公司 以零點交越檢測改進語音活動檢測之設備及方法
US11790931B2 (en) 2020-10-27 2023-10-17 Ambiq Micro, Inc. Voice activity detection using zero crossing detection
US11595730B2 (en) * 2021-03-08 2023-02-28 Tencent America LLC Signaling loudness adjustment for an audio scene
CN113113049A (zh) * 2021-03-18 2021-07-13 西北工业大学 一种联合语音增强的语音活动检测方法
EP4134954B1 (de) * 2021-08-09 2023-08-02 OPTImic GmbH Verfahren und vorrichtung zur audiosignalverbesserung
KR102628500B1 (ko) * 2021-09-29 2024-01-24 주식회사 케이티 대면녹취단말장치 및 이를 이용한 대면녹취방법

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3803357A (en) 1971-06-30 1974-04-09 J Sacks Noise filter
US4661981A (en) 1983-01-03 1987-04-28 Henrickson Larry K Method and means for processing speech
DE3370423D1 (en) * 1983-06-07 1987-04-23 Ibm Process for activity detection in a voice transmission system
US4628529A (en) 1985-07-01 1986-12-09 Motorola, Inc. Noise suppression system
US4912767A (en) 1988-03-14 1990-03-27 International Business Machines Corporation Distributed noise cancellation system
CN1062963C (zh) 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
US5632005A (en) 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
EP0520068B1 (en) 1991-01-08 1996-05-15 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
ATE222019T1 (de) 1991-05-29 2002-08-15 Pacific Microsonics Inc Verbesserungen in systemen zum erreichen von grösserer frequenz-auflösung
US5388185A (en) 1991-09-30 1995-02-07 U S West Advanced Technologies, Inc. System for adaptive processing of telephone voice signals
US5263091A (en) 1992-03-10 1993-11-16 Waller Jr James K Intelligent automatic threshold circuit
US5251263A (en) 1992-05-22 1993-10-05 Andrea Electronics Corporation Adaptive noise cancellation and speech enhancement system and apparatus therefor
US5734789A (en) 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
US5425106A (en) 1993-06-25 1995-06-13 Hda Entertainment, Inc. Integrated circuit for audio enhancement system
US5400405A (en) 1993-07-02 1995-03-21 Harman Electronics, Inc. Audio image enhancement system
US5471527A (en) 1993-12-02 1995-11-28 Dsc Communications Corporation Voice enhancement system and method
US5539806A (en) 1994-09-23 1996-07-23 At&T Corp. Method for customer selection of telephone sound enhancement
US5623491A (en) 1995-03-21 1997-04-22 Dsc Communications Corporation Device for adapting narrowband voice traffic of a local access network to allow transmission over a broadband asynchronous transfer mode network
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
US5812969A (en) * 1995-04-06 1998-09-22 Adaptec, Inc. Process for balancing the loudness of digitally sampled audio waveforms
US6263307B1 (en) * 1995-04-19 2001-07-17 Texas Instruments Incorporated Adaptive weiner filtering using line spectral frequencies
US5661808A (en) 1995-04-27 1997-08-26 Srs Labs, Inc. Stereo enhancement system
JP3416331B2 (ja) 1995-04-28 2003-06-16 松下電器産業株式会社 音声復号化装置
US5774557A (en) 1995-07-24 1998-06-30 Slater; Robert Winston Autotracking microphone squelch for aircraft intercom systems
FI102337B1 (fi) * 1995-09-13 1998-11-13 Nokia Mobile Phones Ltd Menetelmä ja piirijärjestely audiosignaalin käsittelemiseksi
FI100840B (fi) 1995-12-12 1998-02-27 Nokia Mobile Phones Ltd Kohinanvaimennin ja menetelmä taustakohinan vaimentamiseksi kohinaises ta puheesta sekä matkaviestin
DE19547093A1 (de) 1995-12-16 1997-06-19 Nokia Deutschland Gmbh Schaltungsanordnung zur Verbesserung des Störabstandes
US5689615A (en) 1996-01-22 1997-11-18 Rockwell International Corporation Usage of voice activity detection for efficient coding of speech
US5884255A (en) * 1996-07-16 1999-03-16 Coherent Communications Systems Corp. Speech detection system employing multiple determinants
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
DE19703228B4 (de) * 1997-01-29 2006-08-03 Siemens Audiologische Technik Gmbh Verfahren zur Verstärkung von Eingangssignalen eines Hörgerätes sowie Schaltung zur Durchführung des Verfahrens
JPH10257583A (ja) * 1997-03-06 1998-09-25 Asahi Chem Ind Co Ltd 音声処理装置およびその音声処理方法
US5907822A (en) 1997-04-04 1999-05-25 Lincom Corporation Loss tolerant speech decoder for telecommunications
US6208637B1 (en) 1997-04-14 2001-03-27 Next Level Communications, L.L.P. Method and apparatus for the generation of analog telephone signals in digital subscriber line access systems
FR2768547B1 (fr) 1997-09-18 1999-11-19 Matra Communication Procede de debruitage d'un signal de parole numerique
US6169971B1 (en) * 1997-12-03 2001-01-02 Glenayre Electronics, Inc. Method to suppress noise in digital voice processing
US6104994A (en) 1998-01-13 2000-08-15 Conexant Systems, Inc. Method for speech coding under background noise conditions
ATE472193T1 (de) 1998-04-14 2010-07-15 Hearing Enhancement Co Llc Vom benutzer einstellbare lautstärkensteuerung zur höranpassung
US6122611A (en) 1998-05-11 2000-09-19 Conexant Systems, Inc. Adding noise during LPC coded voice activity periods to improve the quality of coded speech coexisting with background noise
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6223154B1 (en) 1998-07-31 2001-04-24 Motorola, Inc. Using vocoded parameters in a staggered average to provide speakerphone operation based on enhanced speech activity thresholds
US6188981B1 (en) 1998-09-18 2001-02-13 Conexant Systems, Inc. Method and apparatus for detecting voice activity in a speech signal
US6061431A (en) 1998-10-09 2000-05-09 Cisco Technology, Inc. Method for hearing loss compensation in telephony systems based on telephone number resolution
US6993480B1 (en) 1998-11-03 2006-01-31 Srs Labs, Inc. Voice intelligibility enhancement system
US6256606B1 (en) 1998-11-30 2001-07-03 Conexant Systems, Inc. Silence description coding for multi-rate speech codecs
US6208618B1 (en) 1998-12-04 2001-03-27 Tellabs Operations, Inc. Method and apparatus for replacing lost PSTN data in a packet network
US6289309B1 (en) 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
US6922669B2 (en) 1998-12-29 2005-07-26 Koninklijke Philips Electronics N.V. Knowledge-based strategies applied to N-best lists in automatic speech recognition systems
US6246345B1 (en) * 1999-04-16 2001-06-12 Dolby Laboratories Licensing Corporation Using gain-adaptive quantization and non-uniform symbol lengths for improved audio coding
US6618701B2 (en) * 1999-04-19 2003-09-09 Motorola, Inc. Method and system for noise suppression using external voice activity detection
US6633841B1 (en) 1999-07-29 2003-10-14 Mindspeed Technologies, Inc. Voice activity detection speech coding to accommodate music signals
US6910011B1 (en) * 1999-08-16 2005-06-21 Haman Becker Automotive Systems - Wavemakers, Inc. Noisy acoustic signal enhancement
CA2290037A1 (en) * 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
US6813490B1 (en) * 1999-12-17 2004-11-02 Nokia Corporation Mobile station with audio signal adaptation to hearing characteristics of the user
US6449593B1 (en) 2000-01-13 2002-09-10 Nokia Mobile Phones Ltd. Method and system for tracking human speakers
US6351733B1 (en) * 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US7962326B2 (en) 2000-04-20 2011-06-14 Invention Machine Corporation Semantic answering system and method
US20030179888A1 (en) * 2002-03-05 2003-09-25 Burnett Gregory C. Voice activity detection (VAD) devices and methods for use with noise suppression systems
US7246058B2 (en) 2001-05-30 2007-07-17 Aliph, Inc. Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors
US6898566B1 (en) * 2000-08-16 2005-05-24 Mindspeed Technologies, Inc. Using signal to noise ratio of a speech signal to adjust thresholds for extracting speech parameters for coding the speech signal
US6862567B1 (en) * 2000-08-30 2005-03-01 Mindspeed Technologies, Inc. Noise suppression in the frequency domain by adjusting gain according to voicing parameters
US7020605B2 (en) * 2000-09-15 2006-03-28 Mindspeed Technologies, Inc. Speech coding system with time-domain noise attenuation
US6615169B1 (en) * 2000-10-18 2003-09-02 Nokia Corporation High frequency enhancement layer coding in wideband speech codec
JP2002169599A (ja) * 2000-11-30 2002-06-14 Toshiba Corp ノイズ抑制方法及び電子機器
US6631139B2 (en) 2001-01-31 2003-10-07 Qualcomm Incorporated Method and apparatus for interoperability between voice transmission systems during speech inactivity
US6694293B2 (en) * 2001-02-13 2004-02-17 Mindspeed Technologies, Inc. Speech coding system with a music classifier
US20030028386A1 (en) 2001-04-02 2003-02-06 Zinser Richard L. Compressed domain universal transcoder
DK1251715T4 (da) 2001-04-18 2011-01-10 Sound Design Technologies Ltd Flerkanalshøreapparat med kommunikation mellem kanalerne
CA2354755A1 (en) * 2001-08-07 2003-02-07 Dspfactory Ltd. Sound intelligibilty enhancement using a psychoacoustic model and an oversampled filterbank
DE60217522T2 (de) * 2001-08-17 2007-10-18 Broadcom Corp., Irvine Verbessertes verfahren zur verschleierung von bitfehlern bei der sprachcodierung
US20030046069A1 (en) * 2001-08-28 2003-03-06 Vergin Julien Rivarol Noise reduction system and method
JP2005502247A (ja) * 2001-09-06 2005-01-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ再生装置
US6937980B2 (en) 2001-10-02 2005-08-30 Telefonaktiebolaget Lm Ericsson (Publ) Speech recognition using microphone antenna array
US6785645B2 (en) * 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
US7328151B2 (en) 2002-03-22 2008-02-05 Sound Id Audio decoder with dynamic adjustment of signal modification
US7167568B2 (en) 2002-05-02 2007-01-23 Microsoft Corporation Microphone array signal enhancement
US7072477B1 (en) * 2002-07-09 2006-07-04 Apple Computer, Inc. Method and apparatus for automatically normalizing a perceived volume level in a digitally encoded file
WO2004008801A1 (en) * 2002-07-12 2004-01-22 Widex A/S Hearing aid and a method for enhancing speech intelligibility
US7454331B2 (en) 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
US7283956B2 (en) * 2002-09-18 2007-10-16 Motorola, Inc. Noise suppression
KR100711280B1 (ko) 2002-10-11 2007-04-25 노키아 코포레이션 소스 제어되는 가변 비트율 광대역 음성 부호화 방법 및장치
US7174022B1 (en) * 2002-11-15 2007-02-06 Fortemedia, Inc. Small array microphone for beam-forming and noise suppression
DE10308483A1 (de) * 2003-02-26 2004-09-09 Siemens Audiologische Technik Gmbh Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät
US7343284B1 (en) * 2003-07-17 2008-03-11 Nortel Networks Limited Method and system for speech processing for enhancement and detection
US7398207B2 (en) * 2003-08-25 2008-07-08 Time Warner Interactive Video Group, Inc. Methods and systems for determining audio loudness levels in programming
US7099821B2 (en) * 2003-09-12 2006-08-29 Softmax, Inc. Separation of target acoustic signals in a multi-transducer arrangement
SG119199A1 (en) * 2003-09-30 2006-02-28 Stmicroelectronics Asia Pacfic Voice activity detector
US7539614B2 (en) * 2003-11-14 2009-05-26 Nxp B.V. System and method for audio signal processing using different gain factors for voiced and unvoiced phonemes
US7483831B2 (en) 2003-11-21 2009-01-27 Articulation Incorporated Methods and apparatus for maximizing speech intelligibility in quiet or noisy backgrounds
CA2454296A1 (en) * 2003-12-29 2005-06-29 Nokia Corporation Method and device for speech enhancement in the presence of background noise
FI118834B (fi) 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
ATE390683T1 (de) 2004-03-01 2008-04-15 Dolby Lab Licensing Corp Mehrkanalige audiocodierung
US7492889B2 (en) 2004-04-23 2009-02-17 Acoustic Technologies, Inc. Noise suppression based on bark band wiener filtering and modified doblinger noise estimate
US7451093B2 (en) 2004-04-29 2008-11-11 Srs Labs, Inc. Systems and methods of remotely enabling sound enhancement techniques
WO2005117483A1 (en) 2004-05-25 2005-12-08 Huonlabs Pty Ltd Audio apparatus and method
US8788265B2 (en) 2004-05-25 2014-07-22 Nokia Solutions And Networks Oy System and method for babble noise detection
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
WO2006026635A2 (en) 2004-08-30 2006-03-09 Qualcomm Incorporated Adaptive de-jitter buffer for voice over ip
FI20045315A (fi) 2004-08-30 2006-03-01 Nokia Corp Ääniaktiivisuuden havaitseminen äänisignaalissa
JP5166030B2 (ja) 2004-09-06 2013-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ信号のエンハンスメント
US7383179B2 (en) * 2004-09-28 2008-06-03 Clarity Technologies, Inc. Method of cascading noise reduction algorithms to avoid speech distortion
US7949520B2 (en) 2004-10-26 2011-05-24 QNX Software Sytems Co. Adaptive filter pitch extraction
KR20070109982A (ko) 2004-11-09 2007-11-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩 및 디코딩
RU2284585C1 (ru) 2005-02-10 2006-09-27 Владимир Кириллович Железняк Способ измерения разборчивости речи
US20060224381A1 (en) 2005-04-04 2006-10-05 Nokia Corporation Detecting speech frames belonging to a low energy sequence
TWI324336B (en) 2005-04-22 2010-05-01 Qualcomm Inc Method of signal processing and apparatus for gain factor smoothing
US8566086B2 (en) 2005-06-28 2013-10-22 Qnx Software Systems Limited System for adaptive enhancement of speech signals
US20070078645A1 (en) 2005-09-30 2007-04-05 Nokia Corporation Filterbank-based processing of speech signals
EP1640972A1 (en) 2005-12-23 2006-03-29 Phonak AG System and method for separation of a users voice from ambient sound
US20070147635A1 (en) 2005-12-23 2007-06-28 Phonak Ag System and method for separation of a user's voice from ambient sound
US20070198251A1 (en) 2006-02-07 2007-08-23 Jaber Associates, L.L.C. Voice activity detection method and apparatus for voiced/unvoiced decision and pitch estimation in a noisy speech feature extraction
ES2525427T3 (es) * 2006-02-10 2014-12-22 Telefonaktiebolaget L M Ericsson (Publ) Un detector de voz y un método para suprimir sub-bandas en un detector de voz
EP1853092B1 (en) 2006-05-04 2011-10-05 LG Electronics, Inc. Enhancing stereo audio with remix capability
US8032370B2 (en) * 2006-05-09 2011-10-04 Nokia Corporation Method, apparatus, system and software product for adaptation of voice activity detection parameters based on the quality of the coding modes
CN100578622C (zh) * 2006-05-30 2010-01-06 北京中星微电子有限公司 一种自适应麦克阵列系统及其语音信号处理方法
US20080071540A1 (en) 2006-09-13 2008-03-20 Honda Motor Co., Ltd. Speech recognition method for robot under motor noise thereof
WO2007082579A2 (en) 2006-12-18 2007-07-26 Phonak Ag Active hearing protection system
JP5530720B2 (ja) * 2007-02-26 2014-06-25 ドルビー ラボラトリーズ ライセンシング コーポレイション エンターテイメントオーディオにおける音声強調方法、装置、およびコンピュータ読取り可能な記録媒体
KR101597375B1 (ko) * 2007-12-21 2016-02-24 디티에스 엘엘씨 오디오 신호의 인지된 음량을 조절하기 위한 시스템
US8175888B2 (en) 2008-12-29 2012-05-08 Motorola Mobility, Inc. Enhanced layered gain factor balancing within a multiple-channel audio coding system
CN102044243B (zh) * 2009-10-15 2012-08-29 华为技术有限公司 语音激活检测方法与装置、编码器
SI3493205T1 (sl) * 2010-12-24 2021-03-31 Huawei Technologies Co., Ltd. Postopek in naprava za adaptivno zaznavanje glasovne aktivnosti v vstopnem avdio signalu
CN102801861B (zh) * 2012-08-07 2015-08-19 歌尔声学股份有限公司 一种应用于手机的语音增强方法和装置
CN107195313B (zh) * 2012-08-31 2021-02-09 瑞典爱立信有限公司 用于语音活动性检测的方法和设备
US20140126737A1 (en) * 2012-11-05 2014-05-08 Aliphcom, Inc. Noise suppressing multi-microphone headset

Also Published As

Publication number Publication date
BRPI0807703B1 (pt) 2020-09-24
US10586557B2 (en) 2020-03-10
US20120310635A1 (en) 2012-12-06
JP2010519601A (ja) 2010-06-03
US8972250B2 (en) 2015-03-03
CN101647059B (zh) 2012-09-05
US20150142424A1 (en) 2015-05-21
US20160322068A1 (en) 2016-11-03
EP2118885B1 (en) 2012-07-11
JP5530720B2 (ja) 2014-06-25
CN101647059A (zh) 2010-02-10
US10418052B2 (en) 2019-09-17
US9818433B2 (en) 2017-11-14
US20180033453A1 (en) 2018-02-01
US20120221328A1 (en) 2012-08-30
US20100121634A1 (en) 2010-05-13
US8195454B2 (en) 2012-06-05
US9368128B2 (en) 2016-06-14
RU2009135829A (ru) 2011-04-10
US9418680B2 (en) 2016-08-16
JP2013092792A (ja) 2013-05-16
US20190341069A1 (en) 2019-11-07
ES2391228T3 (es) 2012-11-22
EP2118885A2 (en) 2009-11-18
WO2008106036A3 (en) 2008-11-27
US20150243300A1 (en) 2015-08-27
WO2008106036A2 (en) 2008-09-04
RU2440627C2 (ru) 2012-01-20
US8271276B1 (en) 2012-09-18

Similar Documents

Publication Publication Date Title
BRPI0807703A2 (pt) Aperfeiçoamento da fala em audio de entretenimento
JP6896135B2 (ja) ボリューム平準化器コントローラおよび制御方法
CN109616142B (zh) 用于音频分类和处理的装置和方法
US9384759B2 (en) Voice activity detection and pitch estimation
JP4837123B1 (ja) 音質制御装置及び音質制御方法
JP2023530225A (ja) 初期オーディオ信号を処理するための方法および装置
JP2005530213A (ja) 音声信号処理装置
Brouckxon et al. Time and frequency dependent amplification for speech intelligibility enhancement in noisy environments
Rumsey Hearing enhancement
CN114615581A (zh) 一种提升音频主观感受质量的方法及装置
JP2006171663A (ja) 復調音響信号レベル判定方式
Chang et al. Audio dynamic range control for set-top box

Legal Events

Date Code Title Description
B15K Others concerning applications: alteration of classification

Ipc: G10L 25/78 (2013.01), G10L 19/012 (2013.01), G10L

B06F Objections, documents and/or translations needed after an examination request according art. 34 industrial property law
B06U Preliminary requirement: requests with searches performed by other patent offices: suspension of the patent application procedure
B06A Notification to applicant to reply to the report for non-patentability or inadequacy of the application according art. 36 industrial patent law
B09A Decision: intention to grant
B16A Patent or certificate of addition of invention granted

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 24/09/2020, OBSERVADAS AS CONDICOES LEGAIS.