MXPA03010751A - Segmentacion de senales de audio en eventos auditivos. - Google Patents

Segmentacion de senales de audio en eventos auditivos.

Info

Publication number
MXPA03010751A
MXPA03010751A MXPA03010751A MXPA03010751A MXPA03010751A MX PA03010751 A MXPA03010751 A MX PA03010751A MX PA03010751 A MXPA03010751 A MX PA03010751A MX PA03010751 A MXPA03010751 A MX PA03010751A MX PA03010751 A MXPA03010751 A MX PA03010751A
Authority
MX
Mexico
Prior art keywords
channels
audio
auditory
audio signal
time
Prior art date
Application number
MXPA03010751A
Other languages
English (en)
Inventor
G Crockett Brett
Original Assignee
Dolby Lab Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Lab Licensing Corp filed Critical Dolby Lab Licensing Corp
Priority claimed from PCT/US2002/004317 external-priority patent/WO2002084645A2/en
Publication of MXPA03010751A publication Critical patent/MXPA03010751A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Auxiliary Devices For Music (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Stereophonic System (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)

Abstract

En un aspecto la invencion divide una senal de audio en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, calculando el contenido espectral de bloques de tiempo sucesivos, de la senal de audio (5-1), calculando la diferencia en el contenido espectral entre bloques de tiempo sucesivos de la senal de audio (5-2), identificando una frontera de evento auditivo, como la frontera entre bloques de tiempo sucesivos, cuando la diferencia en el contenido espectral entre esos bloques de tiempo sucesivos, exceda un umbral (5-3). En otro aspecto la invencion genera una representacion de informacion reducida, de una senal de audio, dividiendo una senal de audio en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, y formateando y almacenando informacion relacionada con los eventos auditivos (5-4). Opcionalmente la invencion puede asignar tambien una caracteristica a uno o mas de los eventos auditivos (5-5). La figura mas representativa de la invencion es la numero 5.

Description

SEGMENTACIÓN DE SEÑALES DE AUDIO EN EVENTOS AUDITIVOS CAMPO DE LA INVENCIÓN La presente invención pertenece al campo del procesamiento psicoacústico de señales de audio. En particular, la invención se refiere a aspectos de la división o segmentación de señales de audio en "eventos auditivos", cada uno de los cuales tiende a ser percibido como separado y distinto,, y a aspectos de generar representaciones, de información reducida, de señales de audio en base a eventos auditivos y, opcionalmente, en base también a las características o peculiaridades de las señales de audio en esos eventos auditivos. Los eventos auditivos pueden ser útiles ya que definen los "Segmentos de Audio" MPEG-7 propuestos por la "ISO/IEC JTC 1/SC 29/WG 11".
ANTECEDENTES DE LA INVENCIÓN A la división de sonidos en unidades percibidas como separadas y distintas, se hace referencia a veces como "análisis de eventos auditivos" o "análisis de escenas auditivas" ("ASA"). Una amplia ' discusión del análisis de escenas auditivas es presentada por Albert S. Bregman en su •libro Auditory Scene Analysis - The Perceptual Organization of Sound, Massachusetts Institute of Technology, 1991, Fourth printing, 2001, Second MIT Press paperback edition. Además, la patente de los Estados Unidos de Norteamérica 6,002,776 de Bhadkamkar, et al., 14 de Diciembre de 1999, cita publicaciones que datan desde 1976 como "trabajo de la técnica anterior relacionado con la separación de sonidos mediante el análisis de escenas auditivas" . Sin embargo, la patente de Bhadkamkar, et al., desanima el uso práctico del análisis de escenas auditivas, concluyendo que "las técnicas que involucran el análisis de escenas auditivas, aunque son interesantes desde un punto de vista científico como modelos del procesamiento auditivo humano, actualmente exigen demasiados recursos de cómputo y son demasiado especializadas como para ser consideradas técnicas prácticas para la separación del sonido hasta que se realice un progreso fundamental" . Existen muchos métodos diferentes para extraer características o peculiaridades del audio. Con tal que las peculiaridades o características se encuentren definidas en forma apropiada, su extracción puede ser realizada usando procesos automatizados. Por ejemplo la "ISO/lEC JTC l/SC 29/WG 11" (MPEG) actualmente está estandarizando una variedad de descriptores de audio como parte del estándar MPEG-7. Una desventaja común de ese método es que ignora el Análisis de Escenas Auditivas. Esos métodos buscan medir, periódicamente, ciertos parámetros de procesamientos de señales "clásicos" tales como el tono, la amplitud, la potencia, la estructura armónica y la ausencia de distorsión espectral. Esos parámetros, aunque proporcionan información útil no analizan y caracterizan señales de audio en elementos percibidos como separados y distintos de acuerdo con la cognición humana. Sin embargo, los descriptores PEG-7 pueden ser útiles para la caracterización de un Evento Auditivo identificado de conformidad con aspectos de la presente invención.
DESCRIPCIÓN DE LA INVENCIÓN De conformidad con aspectos de la presente invención, se proporciona un proceso eficiente, desde el punto de vista de cómputo, para dividir audio en segmentos temporales o "eventos auditivos" que tiendan a ser percibidos como separados y distintos. Las ubicaciones de las fronteras de estos eventos auditivos (en donde comienzan y finalizan con respecto al tiempo) proporcionan valiosa información que puede ser usada para describir una señal de audio. Las ubicaciones de las fronteras de los eventos auditivos pueden ser ensambladas para generar una representación de información reducida, "rúbrica" o "huella digital" de una señal de audio que pueda ser almacenada para su uso, por ejemplo, en el análisis comparativo con otras rúbricas generadas en forma similar (como por ejemplo en una base de datos de trabajos conocidos) . Bregman menciona en una parte que "escuchamos unidades discretas cuando el sonido cambia abruptamente su 4 timbre, tono, sonoridad, o (en un grado menor) su ubicación en el espacio" . (Audi tory Scene Analysis - The Perceptual Organization of Sound, supra, en la página 469) . Bregman describe también la percepción de múltiples corrientes sonoras, simultáneas, cuando, por ejemplo, se separan en la frecuencia . A fin de detectar cambios en el timbre y en el tono, y ciertos cambios en la amplitud, el proceso de detección de eventos auditivos de conformidad con un aspecto de la presente invención, detecta cambios en la composición espectral con respecto al tiempo. Cuando se aplica a un arreglo de sonido en múltiples canales, en el que los canales representan direcciones en el espacio, el proceso de conformidad con un aspecto de la presente invención detecta también eventos auditivos que resultan de cambios en la ubicación espacial con respecto al tiempo. Opcionalmente, de acuerdo con un aspecto adicional de la presente invención, el proceso puede detectar cambios en la amplitud con respecto al tiempo, que no serian detectados mediante la detección de cambios en la composición espectral con respecto al tiempo. En su implementación con menos requerimientos de cómputo, el proceso divide el audio en segmentos de tiempo, analizando toda la banda de frecuencias (audio de ancho de banda completo) o substancialmente toda la banda de frecuencias (en implementaciones prácticas, se emplea a menudo la filtración limitadora de bandas en los extremos del espectro) y se le proporciona el mayor peso a los componentes de la señal de audio más sonoros. Este enfoque saca ventaja de un fenómeno psicoascústico en el que, en menores escalas de tiempo (de 20 milisegundos (ms) y menores) el oído puede tender a enfocarse en un solo evento auditivo en un tiempo determinado . Esto implica que aunque puedan estar ocurriendo múltiples eventos al mismo tiempo, un componente tiende a ser perceptivamente el más prominente y puede ser procesado en forma individual como si fuese el único evento que se presentase. Sacar ventaja de este efecto permite también que la detección de eventos auditivos aumente con la complejidad del audio que se procesa. Por ejemplo, si la señal de audio de entrada que se procesa es un instrumento solo, los eventos de audio que se identifican serán probablemente las notas individuales que sean tocadas. Similarmente para una señal de voz de entrada, los componentes individuales de la voz, las vocales y consonantes por ejemplo, serán identificadas probablemente como elementos de audio individuales . A medida que se incrementa la complejidad del audio, tal como música con repiques de tambor o múltiples instrumentos y voz, la detección de eventos auditivos identifica el elemento de audio "más prominente" (es decir, el más fuerte) en cualquier momento determinado. Alternativamente, el elemento de audio más prominente puede ser determinado tomando en consideración el umbral de audición y la respuesta en la frecuencia. Aunque las ubicaciones de las fronteras de los eventos auditivos calculadas a partir del audio de ancho de banda completo, proporciona información útil relacionada con el contenido de una señal de audio, podría desearse proporcionar información adicional que describa adicionalmente el contenido de un evento auditivo para el uso de señales de audio. Por ejemplo, una señal de audio podría ser analizada a través de dos o más bandas secundarias de frecuencia y la ubicación de los eventos auditivos de las bandas secundarias de frecuencia se determinaría y usaría para transmitir más información detallada acerca de la naturaleza del contenido de un evento auditivo. Esa información detallada podría proporcionar información adicional no disponible a partir del análisis de banda ancha. De esta manera, opcionalmente, de acuerdo con aspectos adicionales de la presente invención, a expensas de una mayor complejidad computacional , el proceso puede tomar también en consideración cambios en la composición espectral con respecto al tiempo, en bandas de frecuencia discretas (determinadas en forma fija o dinámica, o bandas determinadas tanto en forma fija como dinámica) en vez que en todo el ancho de banda. Este enfoque alternativo tomaría en cuenta más de un flujo de audio en diferentes bandas secundarias de frecuencia, en vez que asumir que en un tiempo particular únicamente se puede percibir un solo flujo. Inclusive un proceso simple y eficiente desde el punto de vista de cómputo, de conformidad con un aspecto de la presente invención para segmentar audio, ha sido encontrado útil para identificar eventos auditivos. Un proceso de detección de eventos auditivos, de la presente invención, puede ser implementado dividiendo una forma de onda de audio en el dominio temporal, en intervalos o bloques de tiempo, y luego convirtiendo los datos que se encuentran en cada bloque, al dominio de la frecuencia, usando, ya sea un banco de filtros o una transformación tiempo-frecuencia, tal como una Transformada de Fourier Discreta Rápida (FFT) . La amplitud del contenido espectral de cada bloque puede ser normalizada a fin de eliminar o reducir el efecto de los cambios en la amplitud. La representación en el dominio de la frecuencia, resultante, proporciona un indicio del contenido espectral (la amplitud como una función de la frecuencia) del audio en el bloque particular. El contenido espectral del bloque sucesivo se compara y se puede tomar un cambio mayor que un umbral, para indicar el inicio temporal o el término temporal de un evento auditivo. La figura 1 muestra una forma de onda idealizada de un solo canal de música orquestal que ilustra eventos auditivos. Los cambios espectrales que ocurren cuando se ejecuta una nota disparan los nuevos eventos auditivos 2 y 3 en las muestras 8 2048 y 2560, respectivamente. Como se mencionó anteriormente, a fin de minimizar la complejidad de cómputo, únicamente se puede procesar una sola banda de las frecuencias de la forma de onda de audio en-el dominio temporal, preferentemente toda la banda de frecuencia del espectro (que puede ser desde aproximadamente 50 Hz hasta 15 KHz en el caso de un sistema de música de calidad promedio) o substancialmente toda la banda de frecuencias (por ejemplo, un filtro definidor de bandas puede excluir los extremos de alta frecuencia y de baja frecuencia) . Preferentemente, los datos en el dominio de la frecuencia se normalizan tal como se describe posteriormente. El grado en el cual necesitan normalizarse los datos en el dominio de la frecuencia proporciona una indicación de la amplitud. De aquí que, si un cambio de este grado excede un umbral predeterminado, también debe tomarse para indicar una frontera de eventos. Los puntos de inicio y fin de un evento, que resultan de cambios espectrales y cambios en la amplitud, pueden ser sometidos a la operación lógica OR en forma conjunta, de manera tal que se identifiquen las fronteras de eventos que resulten de ambos tipos de cambios . En el caso de múltiples canales de audio, cada uno de los cuales represente una dirección en el espacio, cada canal puede ser tratado independientemente, y las 9 fronteras de eventos resultantes, para todos los canales, pueden ser sometidas a la operación lógica O en forma conjunta. De esta manera, por ejemplo, un evento auditivo que cambie abruptamente de direcciones, dará por resultado probablemente una frontera de "fin de evento" en un canal, y una frontera de "inicio de evento" en otro canal . Cuando se realice conjuntamente la operación lógica OR, se identificarán dos eventos. De esta manera, el proceso de detección de eventos auditivos, de la presente invención, es capaz de detectar eventos auditivos en base a cambios espectrales (timbre y tono), en la amplitud y direccionales . Como se mencionó anteriormente, como una opción adicional, pero a expensas de mayor complejidad computacional , en lugar de procesar el contenido espectral de la forma de onda en el dominio temporal, en una sola banda de frecuencias, el espectro de la forma de onda en el dominio temporal, antes de la conversión al dominio de la frecuencia, puede ser dividido en dos o más bandas de frecuencias . Cada una de las bandas de frecuencia puede convertirse después al dominio de la frecuencia y procesarse como si fuese un canal independiente en la manera descrita anteriormente . Las fronteras de eventos resultantes pueden ser sometidas después a la operación lógica OR, en forma conjunta, para definir las fronteras de eventos para ese canal . Las bandas de frecuencias múltiples pueden ser fijas, adaptativas, o una 10 combinación de fijas y adaptativas . Técnicas con filtros de seguimiento, empleadas en la reducción del ruido de audio, y otras técnicas, por ejemplo, pueden emplearse para definir bandas de frecuencia adaptativas (por ejemplo, ondas sinusoidales simultáneas, dominantes, a 800 Hz y 2 KHz podrían dar por resultado dos bandas determinadas en forma adaptativa, centradas en esas dos frecuencias) . Aunque la filtración de los datos antes de la conversión al dominio de la frecuencia, funciona, en forma más óptima el audio con ancho de banda completo se convierte al dominio de la frecuencia y luego se procesan únicamente los componentes de bandas secundarias en la frecuencia de interés . En el caso de convertir el audio de ancho de banda completo, usando la FFT, únicamente se procesarían conjuntamente subgrupos que correspondan a bandas secundarias de frecuencias de interés . Alternativamente, en el caso de múltiples bandas secundarias o múltiples canales, en lugar de realizar la operación lógica OR en forma conjunta a las fronteras de eventos auditivos, lo cual da por resultado un poco menos de información, se puede conservar la información de las fronteras de eventos . Como se muestra en la figura 2, la magnitud en el dominio de la frecuencia, de una señal de audio digital, contiene información útil de la frecuencia, hasta una frecuencia de Fs/2 en donde Fs es la frecuencia de muestreo 11 de la señal de audio digital . Dividiendo el espectro de frecuencias, de la señal de audio, en dos o más bandas secundarias (no necesariamente del mismo ancho de banda y no necesariamente hasta una frecuencia de F2/2 Hz) las bandas secundarias de frecuencia pueden analizarse con respecto al tiempo, en una manera similar a la de un método de detección de eventos auditivos con ancho de banda total . La información de eventos auditivos en bandas secundarias, proporciona información adicional acerca de una señal de audio, que describe en forma más exacta la señal y la diferencia de las otras señales de audio. Esta capacidad de diferenciación mejorada puede ser útil si la información de la rúbricas de audio va a usarse para identificar señales de audio que estén en correspondencia, a partir de un gran número de rúbricas de audio. Por ejemplo, tal como se muestra en la figura 2, un análisis de eventos auditivos en bandas secundarias de frecuencia (con una resolución de fronteras de eventos auditivos, de 512 muestras) ha encontrado múltiples eventos auditivos en múltiples bandas secundarias iniciando, en forma variada, en las muestras 1024 y 1536 y finalizando, en forma variada, en las muestras 2560, 3072 y 3584. Es improbable que este nivel de detalle de las señales hubiese estado disponible a partir de un solo análisis de escenas auditivas en banda ancha. La información de eventos auditivos en bandas 12 secundarias, puede usarse para derivar una rúbrica de evento auditivo para cada banda secundaria. Aunque esto incrementaría el tamaño de la rúbrica de la señal de audio y posiblemente incrementaría el tiempo de cómputo requerido para comparar múltiples rúbricas, se reduciría también en gran medida la probabilidad de clasificar falsamente dos rúbricas como que si fueran las mismas . Podría realizarse una negociación entre el tamaño de rúbrica, la complejidad del cómputo y la exactitud de la señal, dependiendo de la aplicación. Alternativamente, en vez que proporcionar una rúbrica para cada banda secundaria, los eventos auditivos pueden someterse conjuntamente a la operación lógica OR para proporcionar un solo conjunto de fronteras de eventos auditivos "combinadas" (en las muestras 1024, 1536, 2560, 3072 y 3584) . Aunque esto daría por resultado cierta pérdida de información, proporciona un solo conjunto de fronteras de eventos, que represente eventos auditivos combinados, que proporcionen mayor información que la información de un análisis de banda ancha o de una sola banda secundaria. Aunque la información de eventos auditivos en bandas secundarias de frecuencia, por sí misma proporciona información útil de las señales, la relación entre las ubicaciones de los eventos auditivos de bandas secundarias puede analizarse y usarse para proporcionar mayor visión de la naturaleza de una señal de audio. Por ejemplo, la 13 ubicación e intensidad de los eventos auditivos de bandas secundarias pueden usarse como una indicación del timbre (contenido de la frecuencia) de la señal de audio. Los eventos auditivos que aparezcan en bandas secundarias que se encuentran relacionadas armónicamente unas ' con otras, proporcionarían también una visión útil con respecto a la naturaleza armónica del audio. La presencia de eventos auditivos en una sola banda secundaria puede proporcionar también información en cuanto a la naturaleza similar en el tono de una señal de audio . El análisis de la relación de los eventos auditivos en bandas secundarias de frecuencia, en múltiples canales, puede proporcionar también información del contenido espacial . En el caso de analizar múltiples canales de audio, cada canal se analiza independientemente y la información de las fronteras de eventos auditivos, de cada uno, puede conservarse, ya sea en forma separada, o puede combinarse para proporcionar información de eventos auditivos combinados. Esto es algo análogo al caso de múltiples bandas secundarias . Los eventos auditivos combinados pueden comprenderse mejor con referencia a la figura 3 que muestra los resultados del análisis de escenas auditivas, para una señal de audio en dos canales . La figura 3 muestra segmentos simultáneos en el tiempo, de datos de audio en dos canales. El procesamiento de ASA de audio en un primer canal, la forma 14 de onda superior de la figura 3, indica fronteras de eventos auditivos en muestras que son múltiplos del tamaño de bloque con perfil espectral de 512 muestras, en este ejemplo 1024 y 1536 muestras. La forma de onda más baja de la figura 3 es un segundo canal y el procesamiento ASA da por resultado fronteras de eventos en muestras que son también múltiplos del tamaño de bloque del perfil espectral, en las muestras 1024, 2048 y 3072 en este ejemplo. Un análisis de eventos auditivos combinados, para ambos canales, da por resultado segmentos de eventos auditivos combinados, con fronteras en las muestras 1024, 1536, 2048 y 3072 (las fronteras de los eventos auditivos, de los canales, se someten conjuntamente a la operación lógica OR) . Se apreciará que en la práctica la exactitud de las fronteras de eventos auditivos depende del tamaño del bloque del perfil espectral (N es de 512 muestras en este ejemplo) porque las fronteras de los eventos pueden ocurrir únicamente en las fronteras de los bloques . No obstante, se ha encontrado que un tamaño de bloque de 512 muestras determina fronteras de eventos auditivos con suficiente exactitud para proporcionar resultados satisfactorios . La figura 3A muestra tres eventos auditivos . Estos eventos incluyen la (1) porción silenciosa del audio antes del transitorio, (2) el evento transitorio, y (3) la porción de eco/sostenido del transitorio del audio. Una señal 15 de voz se representa en la figura 3B teniendo un evento de carácter sibilante, y eventos a medida que el carácter sibilante se produce o wse forma" en la vocal, la primera mitad de la vocal y la segunda mitad de la vocal. La figura 3 muestra también las fronteras de eventos combinados cuando los datos de los eventos auditivos están compartidos a través de los bloques de datos concurrentes en el tiempo, de los dos canales. Esa segmentación de eventos proporciona cinco regiones de eventos auditivos combinados (las fronteras de los eventos son sometidas con untamente a la operación lógica OR) . La figura 4 muestra un e emplo de una señal de entrada en 4 canales. Los canales 1 y 4 contienen, cada uno, tres eventos auditivos y los canales 2 y 3 contienen cada uno, dos eventos auditivos. Las fronteras de los eventos auditivos combinados, para los bloques de datos concurrentes, en todos los cuatro canales, están localizadas en los números de muestras 512, 1024, 1536, 2560 y 3072 tal como se indica en la parte inferior de la figura 4. En principio, el audio procesado puede ser digital o analógico, y puede no necesitar ser dividido en bloques. Sin embargo, en aplicaciones prácticas, las señales de entrada son probablemente uno o más canales de audio digital representados por muestras en las que muestras consecutivas en cada canal se encuentren divididas en 16 bloques, por ejemplo de 4096 muestras (como en los ejemplos de las figuras 1, 3 y 4, anteriores). En modalidades prácticas presentadas más adelante en la presente, los eventos auditivos se determinan examinando bloques de datos de muestras de audio que representen preferentemente aproximadamente 20 ms de audio o menos, que se cree que es el evento auditivo más corto que puede ser reconocido por el oído humano. De esta manera, en la práctica, los eventos auditivos serán determinados probablemente mediante el examen de bloques, por ejemplo de 512 muestras, lo cual corresponde aproximadamente a 11.6 ms de audio de entrada, con una tasa de muestreo de 44.1 kHz, dentro de bloques más grandes de datos de muestras de audio. Sin embargo, en todo este documento se hace referencia a "bloques" en vez que a "bloques secundarios" cuando se hace referencia al examen de segmentos de datos de audio con el propósito de detectar fronteras de eventos auditivos. Debido a que los datos de muestras de audio se examinan en bloques, en la práctica, las fronteras temporales de los puntos de inicio y paro, de los eventos auditivos, coincidirán cada una, necesariamente, con las fronteras de los bloques . Existe una negociación entre los requerimientos del procesamiento en tiempo real (ya que bloques más grandes requieren de menos gastos de procesamiento) y resolución de la ubicación de eventos (bloques más pequeños proporcionan información más detallada 17 respecto a la ubicación de eventos auditivos) . Otros aspectos de la invención serán apreciados y entendidos a medida que se lea y comprenda la descripción detallada de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La figura 1 es una forma de onda idealizada de un solo canal de un auditorio que ilustra música orquestal. La figura 2 es un diagrama esquemático conceptual, idealizado, que ilustra el concepto de dividir el audio de ancho de banda total, en bandas secundarias de frecuencia, a fin de identificar eventos auditivos en bandas secundarias. La escala horizontal representa las muestras y la escala vertical representa la frecuencia. La figura 3 es una serie de formas de onda idealizadas, en dos canales de audio, que muestran eventos de audio en cada canal y eventos de audio combinados, a través de los dos canales . La figura 4 es una serie de formas de onda idealizadas en cuatro canales de audio, que muestra eventos de audio en cada canal y eventos de audio combinados a través de los cuatro canales . La figura 5 es un diagrama de flujo que muestra la extracción de ubicaciones de eventos de audio y la extracción opcional de bandas secundarias dominantes a partir 18 de una señal de audio de conformidad con la presente invención. La figura 6 es una representación esquemática conceptual que representa el análisis espectral de acuerdo con la presente invención. Las figuras 7, 8 y 9 son arreglos equivalentes del proceso de la figura 5.
DESCRIPCION DETALLADA DE LAS MODALIDADES PREFERIDAS De conformidad con una modalidad de un aspecto de la presente invención, el análisis de escenas auditivas está compuesto de tres pasos generales de procesamiento, tal como se muestra en una porción de la figura 5. El primer paso 5-1 ("Realizar el Análisis Espectral") toma una señal de audio en el dominio temporal, la divide en bloques y calcula un perfil espectral o contenido espectral para cada uno de los bloques. El análisis espectral transforma la señal de audio al dominio de la frecuencia a corto plazo. Esto puede realizarse usando un banco de filtros, ya sea basado en transformadas o bancos de filtros de paso de banda, y en un espacio de frecuencia ya sea lineal o curvo (tal como la escala Bark o la banda crítica, que se aproximan mejor a las características del oído humano) . En cualquier banco de filtros existe una negociación entre el tiempo y la frecuencia. Una resolución temporal mayor, y por lo tanto intervalos de tiempo más 19 cortos, conduce a una menor resolución en la frecuencia. Una mayor resolución en la frecuencia, y por lo tanto bandas secundarias más estrechas, conduce a intervalos de tiempo más largos . El primer paso, ilustrado conceptualmente en la figura 6, calcula el contenido espectral de segmentos de tiempo sucesivos, de la señal de audio. En una modalidad práctica el tamaño del bloque de ASA es de 512 muestras de la señal de audio de entrada. En el segundo paso 5-2, se determinan las diferencias en el contenido espectral de bloque a bloque ("Realizar mediciones de diferencias en el perfil espectral") . De esta manera, el segundo paso calcula la diferencia en el contenido espectral entre segmentos de tiempo sucesivos, de la señal de audio. Como se analizó anteriormente, un indicador poderoso del inicio o final de un evento auditivo percibido, se cree que es un cambio en el contenido espectral. En el tercer paso 5-3 ("Identificar ubicación de las fronteras de los eventos auditivos") , cuando la diferencia espectral entre un bloque del perfil espectral y el próximo, es mayor que un umbral, la frontera del bloque se toma como una frontera de evento auditivo. De esta manera, el tercer paso fija una frontera de evento auditivo entre segmentos de tiempo sucesivos, cuando la diferencia en el contenido del perfil espectral, entre los segmentos de tiempo sucesivos, excede un umbral, definiendo así eventos 20 auditivos. En esta modalidad, las fronteras de los eventos auditivos definen eventos auditivos que tienen una longitud que es un múltiplo entero de los bloques del perfil espectral, con una longitud mínima de un bloque en el perfil espectral (512 muestras en este ejemplo) . En principio, las fronteras de los eventos no necesitan estar limitadas en esa forma. Como una alternativa a las modalidades prácticas analizadas aquí, el tamaño del bloque de entrada puede variar, por ejemplo, a fin de que sea esencialmente el tamaño de un evento auditivo. Las ubicaciones de las fronteras de los eventos pueden ser almacenadas como una caracterización de información reducida o "rúbrica" y formateadas según se desee, tal como se muestra en el paso 5-4. Un paso de proceso opcional de proceso 5-5 ("Identificar la banda secundaria dominante") usa el análisis espectral del paso 5-1 para identificar una banda secundaria de frecuencia dominante, que pueda ser almacenada también como parte de la rúbrica. La información de la banda secundaria dominante puede ser combinada con la información de las fronteras de los eventos auditivos, a fin de definir una característica de cada evento auditivo . Se pueden disponer en ventana segmentos de audio traslapantes o no traslapantes, y usarlos para calcular los perfiles espectrales del audio de entrada. El traslape da por 21 resultado una resolución más fina en cuanto a la ubicación de eventos auditivos y hace también que sea menos probable perder un evento, tal como un transitorio. Sin embargo, el traslape incrementa también la complejidad computacional . De esta manera puede omitirse el traslape . La figura 6 muestra una representación conceptual de bloques de 512 muestras, no traslapantes, que se encuentran dispuestos en ventana y que son transformados al dominio de la frecuencia mediante la Transformada de Fourier Discreta (DFT) . Cada bloque puede ser dispuesto en ventana y transformado al dominio de la frecuencia, tal como mediante el uso de la DFT, implementada preferentemente como una Transformada de Fourier Rápida (FFT) para imprimir rapidez. Las siguientes variables pueden ser usadas para calcular el perfil espectral del bloque de entrada: N = número de muestras en la señal de entrada M = número de muestras dispuestas en ventana en un bloque, usadas para calcular el perfil espectral P = número de muestras de traslape del cálculo espectral Q = número de ventanas/regiones espectrales calculadas . En general, se pueden usar cualesquiera números enteros para las variables anteriores. Sin embargo, la implementación será más eficiente si M se fija igual a una 22 potencia de 2 , de manera tal que puedan usarse las FFT estándares para los cálculos del perfil espectral. Además, si N, M, y P se seleccionan de forma tal que Q sea un número entero, esto evitará la ejecución de audio deficiente o excesiva al final de las N muetras. En una modalidad práctica del proceso de análisis de escenas auditivas, los parámetros listados se pueden fijar a: M = 512 muestras (o 11.6 milisegundos a 44.1 kHz) P = 0 muestras (sin traslape) Los valores listados anteriormente fueron determinados experimentalmente y se encontró, en general, que identificaban con suficiente exactitud la ubicación y duración de los eventos auditivos. Sin embargo, se ha encontrado que el ajuste del valor de P en 256 muestras (traslape del 50%) , en vez que cero muestras (sin traslape) es útil en la identificación de algunos eventos difíciles de encontrar. Aunque se pueden usar muchos diferentes tipos de ventanas, para minimizar los artefactos espectrales debido a la disposición en ventana, la ventana usada en los cálculos del perfil espectral es una ventana de Hanning, Kaiser-Bessel de M puntos u otra ventana apropiada, preferentemente no rectangular. Los valores indicados anteriormente y un tipo de ventana de Hanning, fueron seleccionados después de largos análisis experimentales, ya que demostraron excelentes resultados en todo un amplio intervalo de material de audio. 23 Se prefiere la disposición en ventana, no rectangular, para el procesamiento de señales de audio con un contenido de frecuencias predominante bajas. La disposición en ventana rectangular produce artefactos espectrales que pueden causar la detección incorrecta de eventos . A diferencia de ciertas aplicaciones de codificador y descodificador (codee) , en donde un proceso global de traslape/adición, debe proporcionar un nivel constante, esa restricción no aplica aquí y la ventana puede seleccionarse para que tenga características tales como su resolución en el tiempo/frecuencia y el rechazo de bandas de paro. En el paso 5-1 (figura 5) , el espectro de cada bloque de M muestras se puede calcular disponiendo en ventana los datos, mediante una ventana de Hanning, Kaiser-Bessel de M puntos, u otra ventana apropiada, convirtiendo al dominio de la frecuencia usando una Transformada de Fourier Rápida de M puntos, y calculando la magnitud de los coeficientes complejos de la FFT. Los datos resultantes se normalizan de manera tal que la magnitud más grande se fija como la unidad, y el arreglo normalizado de M números se convierte al dominio logarítmico. El arreglo no necesita ser convertido al dominio logarítmico, pero la conversión simplifica el cálculo de la medición de diferencias en el paso 5-2. Además, el dominio logarítmico coincide más estrechamente con la naturaleza del sistema auditivo humano. Los valores en el dominio 24 logarítmico, resultantes, tienen un intervalo desde menos infinito hasta cero. En una modalidad práctica, se puede imponer un límite inferior al intervalo de valores; el límite puede ser fijo, por ejemplo, -60 dB, o puede ser dependiente de la frecuencia, para reflejar la menor audibilidad de sonidos silenciosos a frecuencia bajas y muy altas. (Obsérvese que sería posible reducir el tamaño del arreglo a M/2 en el que la FFT representa frecuencias tanto negativas como positivas) . El paso 5-2 calcula una medida de la diferencia entre los espectros de bloques adyacentes. Para cada bloque, cada uno de los coeficientes espectrales de M (log) del paso 5-1 se resta del coeficiente correspondiente para el bloque precedente y se calcula la magnitud de la diferencia (se ignora el signo) . Estas M diferencias se suman después para obtener un solo número. De aquí que, para un segmento temporal de audio, contiguo, que contenga Q bloques, el resultado es un arreglo de Q números positivos, uno para cada bloque. Mientras mayor es el número, más difiere un bloque en el espectro, del bloque precedente. Esta medida de la diferencia puede expresarse también como una diferencia promedio por coeficiente espectral, dividiendo la medida de diferencia entre el número de coeficientes espectrales usados en la suma (en este caso M coeficientes) . El paso 5-3 identifica las ubicaciones de 25 fronteras de eventos auditivos, aplicando un umbral al arreglo de medidas de diferencia, del paso 5-2, con un valor umbral. Cuando una medida de diferencia excede un umbral, se considera que el cambio en el espectro es suficiente para señalar un nuevo evento y el número de bloques del cambio se registra como una frontera de eventos . Para los valores de y P dados anteriormente y para los valores del dominio logarítmico (en el paso secundario 5-1) expresados en unidades de dB, el umbral puede fijarse igual a 2500 si se compara la FFT de magnitud total (incluyendo la parte en el espejo) , o de 1250 si se compara la mitad de la FFT (como se mencionó anteriormente, la FFT representa las frecuencias tanto negativas como positivas; para la magnitud de la FFT, una es la imagen en el espejo de la otra) . Este valor se seleccionó experimentalmente y proporciona una buena detección de fronteras de eventos auditivos. Este valor del parámetro puede cambiarse para reducir (incrementar el umbral) o incrementar (reducir el umbral) la detección de eventos . Para una señal de audio que consista de Q bloques (de tamaño M muestras) , la salida del paso 5-3 de la figura 5 puede almacenarse y formatearse en el paso 5-4 como un arreglo B(q) de información que representa la ubicación de las fronteras de los eventos auditivos en donde q = 0, 1, ...,Q-1. Para un tamaño de bloque de M = 512 muestras, 26 un traslape de P = O muestras y una tasa de muestreo de señales de 44.1 kHz, la función 2 del análisis de escenas auditivas emite aproximadamente 86 valores por segundo. El arreglo B(q) puede almacenarse como una rúbrica, de manera tal que, en su forma básica, sin la información de frecuencias de las bandas secundarias dominantes, opcional, del paso 5-5, la rúbrica de la señal de audio es un arreglo B(q) que representa una cadena de fronteras de eventos auditivos .
Identificar Bandas Secundarias Dominantes (Opcional) Para cada bloque, un paso adicional, opcional, en el procesamiento de la figura 5 es extraer información de la señal de audio que denote la "banda secundaria" de frecuencia dominante, del bloque (la conversión de los datos en cada bloque, al dominio de la frecuencia, da por resultado información dividida en bandas secundarias de frecuencia) . Esa información para cada evento auditivo proporciona información concerniente al evento auditivo mismo y puede ser útil para proporcionar una representación, de información reducida, detallada y única, de la señal de audio. El empleo de la información de banda secundaria dominante es más apropiado en el caso de determinar eventos auditivos de audio con ancho de banda completo, en vez que casos en los que el audio se descomponga en bandas secundarias y los eventos 27 auditivos sean determinados para cada banda secundaria. La banda secundaria dominante (de la mayor amplitud) puede seleccionarse a partir de una pluralidad de bandas secundarias, 3 o 4, por ejemplo, que se encuentren dentro del intervalo o bandas de frecuencia en donde el oído humano sea lo más sensible. Alternativamente se pueden usar otros criterios para seleccionar las bandas secundarias . El espectro puede ser dividido, por ejemplo, en tres bandas secundarias. Los intervalos de frecuencia útiles para las bandas secundarias son (estas frecuencias particulares no son críticas) : Banda secundaria 1 de 300 Hz a 550 Hz Banda secundaria 2 de 550 Hz a 2,000 Hz Banda secundaria 3 de 2,000 Hz a 10,000 Hz Para determinar la banda secundaria dominante, se suma, para cada banda secundaria, el cuadrado del espectro de las magnitudes (o el espectro de magnitudes de potencia) . Esta suma resultante para cada banda secundaria se calcula y se selecciona la más grande . Las bandas secundarias pueden ser ponderadas también antes de seleccionar la mayor. La ponderación puede tomar la forma de dividir la suma de cada banda secundaria, entre el número de valores espectrales en la banda secundaria, o alternativamente puede tomar la forma de una adición o multiplicación, para enfatizar la importancia de una banda con respecto a otra. Esto puede ser 28 útil en donde algunas bandas secundarias tengan más energía, en promedio, que otras bandas secundarias, pero sean perceptivamente menos importantes. Considerando una señal de audio que consista de Q bloques, la salida del procesamiento de bandas secundarias dominantes, es un arreglo de DS (q) de información que representa la banda secundaria dominante en cada bloque (g = 0, 1,..., Q-l). Preferentemente, el arreglo Ds (q) es formateado y se almacena en la rúbrica junto con el arreglo B(q). De esta manera, con la información opcional de las bandas secundarias dominantes, la rúbrica de la señal de audio consiste en dos arreglos B(q) y DS (q) , que representan, respectivamente, una cadena de eventos auditivos y una banda secundaria de frecuencia dominante, dentro de cada bloque, a partir de la cual se puede determinar, si se desea, la banda secundaria de frecuencia dominante, para cada evento auditivo. Así, en un ejemplo idealizado, los dos arreglos podrían tener los siguientes valores (para un caso en el que existan tres posibles bandas secundarias dominantes) . 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 1 0 (Fronteras de Eventos) 1 1 2 2 2 2 1 1 1 3 3 3 3 3 3 1 1 (Bandas Secundarias Dominantes) En la mayoría de los casos, la banda secundaria 29 dominante permanece igual dentro de cada evento auditivo, tal como se muestra en este ejemplo, o tiene un valor promedio si no es uniforme para todos los bloques dentro del evento. De está manera se puede determinar una banda secundaria dominante para cada evento auditivo y el arreglo DS (g) puede ser modificado para proporcionar la misma banda secundaria dominante que es asignada a cada bloque dentro de un evento. El proceso de la figura 5 puede ser representado en forma más general mediante los arreglos equivalentes de las figuras 7, 8 y 9. En la figura 7 se aplica una señal de audio en paralelo a una función de "Identificar Eventos Auditivos" o paso 7-1 que divide la señal de audio en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, y a una función opcional de "Identificar Características de Eventos Auditivos" o paso 7-2. El proceso de la figura 5 puede ser empleado para dividir la señal de audio en eventos auditivos o puede emplearse algún otro proceso apropiado. La información de los eventos auditivos, que puede ser una identificación de fronteras de eventos auditivos, determinadas mediante la función o paso 7-1 se almacena y formatea, según se desee, mediante una función de "Almacenar y Formatear" o paso 7-3. La función opcional de "Identificar Características" o paso 7-3 recibe también la información de eventos auditivos. La función de "Identificar Características" o paso 7-3 puede caracterizar algunos o 30 todos los eventos auditivos mediante una o más características. Esas características pueden incluir una identificación de la banda secundaria dominante del evento auditivo, tal como se describe con relación al proceso de la figura 5. Las características pueden incluir también uno o más de los descriptores de audio MPEG-7, incluyendo, por ejemplo, una medida de la potencia del evento auditivo, una medida de la amplitud del evento auditivo, una medida de la uniformidad espectral del evento auditivo, y si el evento auditivo es o no substancialmente silencioso. Las características pueden incluir también otras características tales como el hecho de que si el evento auditivo incluye o no un transitorio. Las características para uno o más eventos auditivos son recibidas también por la función de "Almacenar y Formatear" o paso 7-3 y son almacenadas y formateadas junto con la información del evento auditivo. Alternativas al arreglo de la figura 7 se muestran en las figuras 8 y 9. En la figura 8 la señal de entrada de audio no se aplica directamente a la función de "Identificar Características" o paso 8-3, pero recibe información proveniente de la función de "Identificar Eventos Auditivos" o paso 8-1. El arreglo de la figura 5 es un ejemplo específico de ese arreglo. En la figura 9, las funciones o pasos 9-1, 9-2 y 9-3 se arreglan en serie. Los detalles de esta modalidad práctica no son 31 críticos. Se pueden emplear otras formas para calcular el contenido espectral de segmentos de tiempo sucesivos de la señal de audio, para calcular las diferencias entre segmentos de tiempo sucesivos, y para fijar fronteras de eventos auditivos en fronteras respectivas entre segmentos de tiempo sucesivos, cuando la diferencia en el contenido del perfil espectral entre esos segmentos de tiempo sucesivos, exceda un umbral . Deberá comprenderse que la implementación de otras variaciones y modificaciones de la invención y de sus diferentes aspectos, serán evidentes para los experimentados en la técnica, y que la invención no está limitada por estas modalidades específicas descritas. Por lo tanto se contempla que la presente invención cubra cualesquiera y todas modificaciones, variaciones, o equivalentes que caigan dentro del verdadero espíritu y alcance de los principios subyacentes, básicos, descritos y reivindicados aquí. La presente invención y sus diferentes aspectos pueden ser implementados como sus funciones de Software ejecutadas en procesadores de señales digitales, en computadoras digitales de propósito general, programadas, y/o en computadoras digitales de propósito especial . Las interfases entre fuentes de señales analógicas y digitales pueden ser ejecutadas en hardware apropiado y/o como funciones en software y/o firmware.

Claims (11)

  1. 32 REIVINDICACIONES 1. Un método para dividir cada uno de múltiples canales de señales de audio digitales, en eventos auditivos, cada uno de los cuales tiende a ser percibido como separado y distinto, caracterizado porque comprende, detectar cambios en las características de la señal, con respecto al tiempo en la señal de audio, en cada uno de los canales, e identificar las fronteras de los eventos auditivos en la señal de audio de un canal, cada frontera en respuesta a un cambio en características de las señales, con respecto al tiempo, en el canal, que excedan un umbral, de manera tal que se obtenga un conjunto de fronteras de eventos auditivos para cada canal, en donde un segmento de audio en un canal, entre fronteras consecutivas, constituye un evento auditivo. 2. Un método de conformidad con la reivindicación 1, caracterizado porque además comprende identificar una frontera de eventos auditivos combinada para los canales, en respuesta a la identificación de una frontera de evento auditivo en cada canal. 3. Un método de conformidad con la reivindicación 2, caracterizado porque el audio en los canales respectivos, representa direcciones respectivas en el espacio. 4. Un método de conformidad con la reivindicación 2, caracterizado porque el audio en los canales respectivos representa bandas de frecuencia de una señal de audio. 33 5. Un método de conformidad con la reivindicación 1, caracterizado porque el audio en canales respectivos representa direcciones respectivas en el espacio. 6. Un método de conformidad con la reivindicación 1, caracterizado porque el audio en los canales respectivos representa bandas de frecuencias de una señal de audio. 7. Un método de conformidad con cualesquiera de las reivindicaciones 1-6, caracterizado porque los cambios de detección en las características de las señales, con respecto al tiempo, en la señal de audio, en cada uno de los canales, incluye dividir la señal de audio en bloques de tiempo y convertir los datos en cada bloque al dominio de la frecuencia. 8. Un método de conformidad con la reivindicación 7, caracterizado porque las características de las señales son una de: (a) contenido espectral, o (b) contenido espectral y contenido de la amplitud. 9. Un método de conformidad con la reivindicación 7, caracterizado porque las características de la señal son de contenido espectral . 10. Un método de conformidad con la reivindicación 9, caracterizado porque los cambios de detección en las características de la señal, con respecto al tiempo, en la señal de audio, en cada uno de los canales, detecta los cambios en el contenido espectral entre bloques 34 de tiempo sucesivos de la señal de audio, en cada uno de los canales . 11. El método de conformidad con la reivindicación 10, caracterizado porque los datos de audio en bloques de tiempo consecutivos, se representan mediante coeficientes y los cambios de detección en el contenido espectral, entre bloques de tiempo sucesivos, de la señal de audio, en cada uno de los canales, incluye substraer coeficientes de un bloque de los coeficientes correspondientes de un bloque adyacente . 12. El método de conformidad con la reivindicación 11, caracterizado porque los cambios de detección en el contenido espectral entre bloques de tiempo sucesivos, de la señal de audio, en cada uno de los canales, incluye además sumar las magnitudes de las diferencias que resulten de substraer los coeficientes de un bloque, de los coeficientes correspondientes de un bloque adyacente, y comparar las magnitudes sumadas, con un umbral. 13. El método de conformidad con la reivindicación 12, caracterizado porque se identifica una frontera de evento auditivo cuando las magnitudes sumadas exceden el umbral . 14. El método de conformidad con la reivindicación 7, caracterizado porque el método comprende además asignar una característica a uno o más de los eventos 35 auditivos . 15. El método de conformidad con la reivindicación 14, caracterizado porque las características que se pueden asignar a uno o más de los eventos auditivos incluyen una o más de: la banda secundaria dominante del espectro de frecuencias del evento auditivo, una medida de la potencia del evento auditivo, una medida de la amplitud del evento auditivo, una medida de la uniformidad espectral del evento auditivo, ya sea que el evento auditivo sea substancialmente silencioso, y si el evento auditivo incluye un transitorio . 16. El método de conformidad con la reivindicación 15, caracterizado porque además comprende formatear y almacenar las fronteras de los eventos auditivos y la identificación de características asignadas a los eventos auditivos. 17. El método de conformidad con la reivindicación 7, caracterizado porque además comprende formatear y almacenar las fronteras de los eventos auditivos. 18. El método de conformidad con la reivindicación 7, caracterizado porque además comprende normalizar los datos en el dominio de la frecuencia. 19. El método de conformidad con la reivindicación 18, caracterizado porque la detección de los cambios en las características de la señal con respecto al 36 tiempo, en la señal de audio, en cada uno de los canales, detecta cambios en el contenido espectral entre bloques de tiempo sucesivos de la señal de audio, en cada uno de los canales . 20. El método de conformidad con la reivindicación 19, caracterizado porque la detección de cambios en las características de la señal con respecto al tiempo, en la señal de audio, en cada uno de los canales, detecta además cambios en la amplitud entre bloques de tiempo sucesivos, en la señal de audio, en cada uno de los canales. 21. El método de conformidad con la reivindicación 20, caracterizado porque los cambios en la amplitud son detectados por el grado en el cual están normalizados los datos en el dominio de la frecuencia. 22. El método de conformidad con la reivindicación 7, caracterizado porque la detección de cambios en las características de la señal, con respecto al tiempo, y en la señal de audio, en cada uno de los canales, comprende además normalizar los datos en el dominio de la frecuencia y convertir los datos normalizados al dominio logarítmico . 23. El método de conformidad con la reivindicación 22, caracterizado porque la detección de cambios en las características de la señal con respecto al tiempo, en la señal de audio, en cada uno de los canales, 37 comprende además detectar cambios en el contenido espectral entre bloques de tiempo sucesivos de la señal de audio, en cada uno de los canales . 24. El método de conformidad con la reivindicación 23, caracterizado porque la detección de cambios en las características de la señal, con respecto al tiempo, en la señal de audio, en cada uno de los canales, incluye además detectar cambios en la amplitud entre bloques de tiempo sucesivos en la señal de audio, en- cada uno de los canales . 25. El método de conformidad con la reivindicación 24, caracterizado porque los cambios en la amplitud se detectan mediante el grado en el cual han sido normalizados los datos en el dominio de la frecuencia.
MXPA03010751A 2001-05-25 2002-02-12 Segmentacion de senales de audio en eventos auditivos. MXPA03010751A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US29382501P 2001-05-25 2001-05-25
US4564402A 2002-01-11 2002-01-11
US35149802P 2002-01-23 2002-01-23
PCT/US2002/004317 WO2002084645A2 (en) 2001-04-13 2002-02-12 High quality time-scaling and pitch-scaling of audio signals

Publications (1)

Publication Number Publication Date
MXPA03010751A true MXPA03010751A (es) 2005-03-07

Family

ID=39362827

Family Applications (2)

Application Number Title Priority Date Filing Date
MXPA03010750A MXPA03010750A (es) 2001-05-25 2002-02-12 Metodo para la alineacion temporal de senales de audio usando caracterizaciones basadas en eventos auditivos.
MXPA03010751A MXPA03010751A (es) 2001-05-25 2002-02-12 Segmentacion de senales de audio en eventos auditivos.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
MXPA03010750A MXPA03010750A (es) 2001-05-25 2002-02-12 Metodo para la alineacion temporal de senales de audio usando caracterizaciones basadas en eventos auditivos.

Country Status (11)

Country Link
EP (2) EP1390942B1 (es)
JP (2) JP4906230B2 (es)
KR (3) KR100873396B1 (es)
CN (2) CN1272765C (es)
AT (1) ATE470927T1 (es)
DE (1) DE60236648D1 (es)
DK (1) DK1393300T3 (es)
ES (1) ES2400700T3 (es)
HK (2) HK1066087A1 (es)
MX (2) MXPA03010750A (es)
WO (1) WO2002097791A1 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
KR100945673B1 (ko) 2001-05-10 2010-03-05 돌비 레버러토리즈 라이쎈싱 코오포레이션 프리-노이즈를 감소시킴으로써 로우 비트 레이트 오디오코딩 시스템의 과도현상 성능을 개선시키는 방법
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
CA3026267C (en) 2004-03-01 2019-04-16 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
CA2581982C (en) 2004-09-27 2013-06-18 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
WO2006132857A2 (en) 2005-06-03 2006-12-14 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
US7948557B2 (en) * 2005-06-22 2011-05-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a control signal for a film event system
JP4940588B2 (ja) * 2005-07-27 2012-05-30 ソニー株式会社 ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法
TWI396188B (zh) * 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
US7539616B2 (en) * 2006-02-20 2009-05-26 Microsoft Corporation Speaker authentication using adapted background models
EP2011234B1 (en) * 2006-04-27 2010-12-29 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection
WO2007144813A2 (en) * 2006-06-13 2007-12-21 Koninklijke Philips Electronics N.V. Fingerprint, apparatus, method for identifying and synchronizing video
JP5040425B2 (ja) * 2007-05-10 2012-10-03 カシオ計算機株式会社 コンテンツ再生方法、再生装置、及びプログラム
GB2457694B (en) * 2008-02-21 2012-09-26 Snell Ltd Method of Deriving an Audio-Visual Signature
JP2010017216A (ja) * 2008-07-08 2010-01-28 Ge Medical Systems Global Technology Co Llc 音声データ処理装置,音声データ処理方法、および、イメージング装置
US8938313B2 (en) * 2009-04-30 2015-01-20 Dolby Laboratories Licensing Corporation Low complexity auditory event boundary detection
US8855101B2 (en) 2010-03-09 2014-10-07 The Nielsen Company (Us), Llc Methods, systems, and apparatus to synchronize actions of audio source monitors
CN102142257B (zh) * 2010-12-28 2013-07-03 北大方正集团有限公司 一种音频信号处理方法及装置
WO2013017966A1 (en) * 2011-08-03 2013-02-07 Nds Limited Audio watermarking
CN103180847B (zh) * 2011-10-19 2016-03-02 华为技术有限公司 音乐查询方法和装置
WO2013158804A1 (en) * 2012-04-17 2013-10-24 Sirius Xm Radio Inc. Systems and methods for implementing efficient cross-fading between compressed audio streams
WO2013075138A1 (en) 2011-11-18 2013-05-23 Sirius Xm Radio Inc. Systems and methods for implementing cross-fading, interstitials and other effects downstream
WO2013134567A1 (en) 2012-03-06 2013-09-12 Sirius Xm Radio Inc. Systems and methods for audio attribute mapping
EP2648418A1 (en) * 2012-04-05 2013-10-09 Thomson Licensing Synchronization of multimedia streams
WO2014018652A2 (en) 2012-07-24 2014-01-30 Adam Polak Media synchronization
US20140114456A1 (en) * 2012-10-22 2014-04-24 Arbitron Inc. Methods and Systems for Clock Correction and/or Synchronization for Audio Media Measurement Systems
US9021516B2 (en) 2013-03-01 2015-04-28 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by measuring a crest factor
US9118960B2 (en) 2013-03-08 2015-08-25 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by detecting signal distortion
US9191704B2 (en) 2013-03-14 2015-11-17 The Nielsen Company (Us), Llc Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures
EP2974253B1 (en) 2013-03-15 2019-05-08 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
WO2015116162A1 (en) 2014-01-31 2015-08-06 Thomson Licensing Method and apparatus for synchronizing playbacks at two electronic devices
CN104036794A (zh) * 2014-06-27 2014-09-10 广东远峰汽车电子有限公司 可识别车载多媒体设备工作频道的加装设备、车载多媒体设备工作频道识别方法及装置
US9924224B2 (en) 2015-04-03 2018-03-20 The Nielsen Company (Us), Llc Methods and apparatus to determine a state of a media presentation device
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
US10394518B2 (en) * 2016-03-10 2019-08-27 Mediatek Inc. Audio synchronization method and associated electronic device
US10390137B2 (en) 2016-11-04 2019-08-20 Hewlett-Packard Dvelopment Company, L.P. Dominant frequency processing of audio signals
GB2556058A (en) * 2016-11-16 2018-05-23 Nokia Technologies Oy Distributed audio capture and mixing controlling
WO2019088853A1 (en) * 2017-11-03 2019-05-09 Klaps Limited Live audio replacement in a digital stream
CN110476960B (zh) * 2019-09-19 2021-06-15 河北省农林科学院植物保护研究所 噻虫胺薄膜缓释型种子处理悬浮剂及其制备方法与应用
CN111489759A (zh) * 2020-03-23 2020-08-04 天津大学 基于光纤语音时域信号波形对齐的噪声评估方法
CN112651429B (zh) * 2020-12-09 2022-07-12 歌尔股份有限公司 一种音频信号时序对齐方法和装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4624009A (en) 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
US5040081A (en) 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US5055939A (en) * 1987-12-15 1991-10-08 Karamon John J Method system & apparatus for synchronizing an auxiliary sound source containing multiple language channels with motion picture film video tape or other picture source containing a sound track
JPH05509409A (ja) * 1990-06-21 1993-12-22 レイノルズ ソフトウエア,インコーポレイティド 波動分析・事象認識方法およびその装置
US5175769A (en) * 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
JPH05181464A (ja) * 1991-12-27 1993-07-23 Sony Corp 楽音認識装置
US6002776A (en) 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
KR100236974B1 (ko) * 1996-12-13 2000-02-01 정선종 동화상과 텍스트/음성변환기 간의 동기화 시스템
JP3379624B2 (ja) * 1997-02-17 2003-02-24 日本電信電話株式会社 波形同期方法
US6211919B1 (en) 1997-03-28 2001-04-03 Tektronix, Inc. Transparent embedment of data in a video signal
JP3511360B2 (ja) * 1998-03-09 2004-03-29 日本電信電話株式会社 音楽音響信号分離方法、その装置およびそのプログラム記録媒体
JP2000181449A (ja) * 1998-12-15 2000-06-30 Sony Corp 情報処理装置および方法、並びに提供媒体
US6321200B1 (en) * 1999-07-02 2001-11-20 Mitsubish Electric Research Laboratories, Inc Method for extracting features from a mixture of signals
JP4458581B2 (ja) * 1999-08-17 2010-04-28 大日本印刷株式会社 信号監視用音楽演奏装置

Also Published As

Publication number Publication date
ATE470927T1 (de) 2010-06-15
KR100911679B1 (ko) 2009-08-10
HK1066902A1 (en) 2005-04-01
KR100871607B1 (ko) 2008-12-02
EP2549475B1 (en) 2019-07-31
JP2004528601A (ja) 2004-09-16
WO2002097791A1 (en) 2002-12-05
KR20040004648A (ko) 2004-01-13
KR20040004647A (ko) 2004-01-13
HK1066087A1 (en) 2005-03-11
JP4906230B2 (ja) 2012-03-28
ES2400700T3 (es) 2013-04-11
CN1511311A (zh) 2004-07-07
CN1272765C (zh) 2006-08-30
DE60236648D1 (de) 2010-07-22
KR100873396B1 (ko) 2008-12-11
DK1393300T3 (da) 2013-03-18
EP1390942A1 (en) 2004-02-25
EP1390942B1 (en) 2012-08-01
JP2004528600A (ja) 2004-09-16
JP4763965B2 (ja) 2011-08-31
EP2549475A1 (en) 2013-01-23
CN1264137C (zh) 2006-07-12
CN1620684A (zh) 2005-05-25
MXPA03010750A (es) 2004-07-01
KR20040004646A (ko) 2004-01-13

Similar Documents

Publication Publication Date Title
US9165562B1 (en) Processing audio signals with adaptive time or frequency resolution
MXPA03010751A (es) Segmentacion de senales de audio en eventos auditivos.
CA2448182C (en) Segmenting audio signals into auditory events
US7283954B2 (en) Comparing audio using characterizations based on auditory events
AU2002252143A1 (en) Segmenting audio signals into auditory events
US20040148159A1 (en) Method for time aligning audio signals using characterizations based on auditory events
AU2006302549A1 (en) Neural network classifier for seperating audio sources from a monophonic audio signal
KR100539176B1 (ko) 음악적 특징 추출 방법 및 장치
Sabri Loudness Control by Intelligent Audio Content Analysis

Legal Events

Date Code Title Description
FG Grant or registration