MXPA06002241A - Metodo y aparato para controlar el funcionamiento de una senal de audio. - Google Patents

Metodo y aparato para controlar el funcionamiento de una senal de audio.

Info

Publication number
MXPA06002241A
MXPA06002241A MXPA06002241A MXPA06002241A MXPA06002241A MX PA06002241 A MXPA06002241 A MX PA06002241A MX PA06002241 A MXPA06002241 A MX PA06002241A MX PA06002241 A MXPA06002241 A MX PA06002241A MX PA06002241 A MXPA06002241 A MX PA06002241A
Authority
MX
Mexico
Prior art keywords
audio signal
signal
text
audio
specified
Prior art date
Application number
MXPA06002241A
Other languages
English (en)
Inventor
William S Meisel
Original Assignee
Clearplay Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clearplay Inc filed Critical Clearplay Inc
Publication of MXPA06002241A publication Critical patent/MXPA06002241A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4542Blocking scenes or portions of the received content, e.g. censoring scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/09Arrangements for device control with a direct linkage to broadcast information or to broadcast space-time; Arrangements for control of broadcast-related services
    • H04H60/13Arrangements for device control affected by the broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/48Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising items expressed in broadcast information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440236Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by media transcoding, e.g. video is transformed into a slideshow of still pictures, audio is converted into text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Control Of Amplification And Gain Control (AREA)
  • Circuits Of Receivers In General (AREA)
  • Television Receiver Circuits (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

Los aparatos y metodos que se conforman a la presente invencion comprenden un metodo para controlar la reproduccion de una senalada de audio a traves del analisis de una senal de subtitulacion para personas con discapacidad auditiva correspondiente, en conjunto con el analisis de la senala de audio correspondiente. Se identifica el texto de objecion u otro texto especificado en la senal de subtitulacion para personas con discapacidad auditiva a traves de la comparacion con el texto objetable identificado por el usuario. A la identificacion del texto objetable, la senal de audio se analiza para identificar la porcion de audio que corresponde al texto objetable. A la identificacion de la porcion de audio, la senal de audio puede controlarse para silenciar el texto objetable audible.

Description

MÉTODO Y APARATO PARA CONTROLAR EL FUNCIONAMIENTO DE UNA SEÑAL DE AUDIO Referencia Cruzada a Solicitudes relacionadas Esta solicitud es una solicitud no provisional que reivindica la prioridad de la solicitud provisional 60/497,769 titulada "Filtering of Media Content Based On the Analysis of the Associated Audio Signal; Using Associated Closed Captioning Signal to Aid in the Analysis" ("Filtración de Contenido de Medios con Base en el Análisis de la Señal de Audio Asociada; Utilizando la Señal Asociada de Subtitulación para Personas con Incapacidad Auditiva para Ayudar en el Análisis") presentada el 26 de Agosto, de 2003, la cual se incorpora en la presente mediante la referencia. Campo de la Invención Esta invención se refiere en general al funcionamiento y presentación de audio/visual y más particularmente a un método y aparato para filtrar palabras objetables de la señal de audio. Antecedentes de la Invención La programación de televisión y radio en vivo y grabada, cine y varias presentaciones de audio con frecuencia incluyen palabras obscenas, difamaciones y otras palabras o frases gue una persona particular puede encontrar objetable. En muchos casos, las personas evitan de manera activa una presentación debido a la presencia del lenguaje objetable.
Además, con frecuencia es el caso que los padres tratan de prohibir a sus niños que se expongan a tal lenguaje. Existen productos que pueden silenciar una frase completa que contenga una palabra objetable. Sin embargo, silenciar una frase completa con frecuencia da como resultado grandes secciones incompletas del dialogo - dando como resultado pobre comprensión del observador y frustración incrementada del observador. El resultado total con frecuencia degrada la calidad de la presentación de audio. Un aparato de televisión típico, el módulo de conexión o lo similar incluye varios elementos de procesamiento para recibir las señales de televisión, incluyendo tanto un componente de audio como un componente de video y reproducir el audio y desplegar las señales de vídeo. Sin embargo, los elementos de procesamiento se especializan en el procesamiento de las señales de audio/vídeo, y tienen poco exceso de ancho de banda para realizar otras operaciones . Los aspectos de la presente invención se concibieron con estos antecedentes en la mente. La presente invención involucra un aparato y método para controlar la reproducción de una señal de audio, ya sea sola o formando parte de una señal de audio/vídeo. Las modalidades que conforman la presente invención pueden configurarse para silenciar sólo las palabras objetables de una corriente de audio. Las modalidades adicionales de la presente invención pueden adaptarse para corren en equipo de procesamiento convencional de audio/vídeo, tal como procesadores de televisión, módulos de conexión, y lo similar, con poca o ninguna modificación de las plataformas físicas existentes, y pueden adaptarse para correr en tiempo real si es necesario para la aplicación particular. Los detalles de las modalidades de la presente invención se tratan con mayor detalle más adelante. Sumario de la Invención Un aspecto de la invención incluye un método para controlar la reproducción de una señal de audio que comprende recibir una señal de subtitulación para personas con discapacidad auditiva y analizar la señal de subtitulación para personas con discapacidad auditiva para un texto específico. A la identificación del texto especificado, se analiza una señal de audio como una función de la identificación del texto especificado a partir de la señal de subtitulación para personas con discapacidad auditiva. La reproducción de la señal de audio que corresponde al texto identificado puede entonces controlarse. La operación de controlar la reproducción puede comprender (1) atenuar una porción de la señal de audio que corresponde al texto especificado de la señal de subtitulación para personas con discapacidad auditiva; (2) cancelar sustancialmente la porción de la señal de audio que corresponde al texto especificado de la señal de subtitulación para personas con discapacidad auditiva; (3) emitir al menos un comando adaptado para causar la atenuación de una porción de la señal de audio que corresponde al texto especificado de la señal de subtitulación para personas con discapacidad auditiva; (4) e, insertar al menos un código de control en la señal de audio, adaptado el código de control para causar la atenuación de la porción de la señal de audio que corresponde al texto especificado de la señal de subtitulación para personas con discapacidad auditiva. El método puede comprender además la operación de convertir el texto especificado a una representación fonética del texto especificado. Además, el método puede comprender prolongar el tiempo de la representación fonética del texto especificado para definir una representación fonética de tiempo prolongado del texto especificado. Para la representación fonética, puede determinarse al menos un valor de energía para definir una forma comparativa del texto especificado. De manera similar, el método puede comprender determinar al menos un valor de energía para la señal de audio para definir una forma comparativa de la señal de audio . La operación de analizar una señal de audio puede comprender además la operación de comparar la forma comparativa del texto especificado con la forma comparativa de la señal de audio. Por lo cual, el método puede comprender además la operación de identificar la porción de la señal de audio que corresponde con el texto especificado. El texto especificado puede ser un espacio, una letra, una palabra, una frase, una oración, un código de control y un símbolo. Además, el texto especifico puede seleccionarse por un usuario. Finalmente, el texto especificado puede seleccionarse de un texto considerado objetable. En algunas implementaciones particulares, la operación de identificar el texto especificado comprende además la operación de identificar un texto precedente, el texto precedente que precede temporalmente al texto especificado. La operación de analizar una señal de audio como una función de la identificación del texto especificado de la señal de subtitulación para personas con discapacidad auditiva puede entonces comprender además analizar la señal de audio como función de la identificación del texto precedente a partir de la señal de subtitulación para personas con discapacidad auditiva. Además, la operación de controlar la reproducción de la señal de audio que corresponde al texto especificado puede entonces comprender además controlar la reproducción de la señal de audio que corresponde al texto precedente.
Otro aspecto de la invención incluye un método para controlar la reproducción de una señal de audio que comprende: convertir una porción específica de una señal de texto de subtitulación para personas con discapacidad auditiva a un audio equivalente de la porción especificada; comparar el equivalente de audio de la porción especificada de la señal de texto de subtitulación para personas con discapacidad auditiva a una señal de audio para identificar una porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva; y controlar la reproducción de la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva. La operación para controlar la reproducción puede comprender además (1) atenuar la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva; (2) cancelar sustancialmente la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva; (3) emitir al menos un comando adaptado para causar atenuación de la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva; (4) e, insertar al menos un código de control en la señal de audio, adaptado el código de control para causar la atenuación de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva. El segundo método puede incluir la operación de convertir la porción especificada de la señal de subtitulación para personas con discapacidad auditiva a una representación fonética de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva. Adicionalmente, el método puede incluir la operación de prolongar el tiempo de la representación fonética de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva para definir una representación fonética de tiempo prolongado. Para la representación fonética, que incluye la versión de tiempo prolongado, el método puede comprender determinar al menos un valor de energía para la representación fonética para definir una forma comparativa de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva. Para comparación, el segundo método puede comprender determinar al menos un valor de energía para la señal de audio para definir una forma comparativa de la señal de audio. Como tal, la operación de comparar puede comprender además la operación de comparar la forma comparativa de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva con la forma comparativa de la señal de audio. Además, la operación de comparar puede comprender además identificar la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva. Como con algunos métodos tratados en la presente, un procesador que comprende una pluralidad de instrucciones ejecutables en computadora puede configurarse para realizar los diversos métodos . Un tercer aspecto de la invención incluye un método para controlar la reproducción de una señal de audio que comprende : recibir una indicación de al menos una palabra objetable; identificar la al menos una palabra objetable en la señal de subtitulación para personas con discapacidad auditiva; e identificar la al menos una palabra objetable en una señal de audio como una función de la operación de identificar la al menos una palabra objetable en una señal de subtitulación para personas con discapacidad auditiva. A través del tercer método, u otros métodos, es posible controlar una presentación de audio de la señal de audio como una función de la operación de identificación. El tercer método puede comprender además silenciar la presentación de audio de una porción de la señal de audio correspondiente a al menos una palabra objetable. Adicionalmente, el tercer método puede involucrar identificar una porción de la señal de subtitulación para personas con discapacidad auditiva que precede a la palabra objetable. La porción precedente puede seleccionarse del grupo que comprende un espacio, una letra, una palabra, una frase, un símbolo y una señal de control de subtitulación para personas con discapacidad auditiva. El tercer método puede comprender identificar la al menos una palabra objetable en una señal de audio como una función de la operación de identificar la al menos una palabra objetable en una señal de subtitulación para personas con discapacidad auditiva y la operación de identificar una porción de la señal de subtitulación para personas con discapacidad auditiva que precede a la palabra objetable. La operación de controlar es una función de la identificación de una porción de la señal de subtitulación para personas con discapacidad auditiva que precede a la palabra objetable. El método puede incluir adicionalmente la operación de causar un silencio de la presentación de audio como una función de la identificación de la porción de la señal de subtitulación para personas con discapacidad auditiva que precede a la palabra objetable en la corriente de audio. También, el método puede comprender finalizar el silencio como una función de la identificación de al menos una palabra objetable en la señal de audio. Un cuarto aspecto de la invención involucra un método para controlar la reproducción de una presentación de audio que comprende: recibir una indicación de al menos una palabra objetable; recibir una señal de audio; almacenar la señal de audio en una memoria; procesar la señal de audio almacenada para determinar si la al menos una palabra objetable se encuentra presente en la señal de audio,- y controlar una presentación de audio de la señal de audio como una función de la operación de procesamiento. La operación de controlar puede comprender: (1) atenuar la porción de la señal de audio correspondiente a la al menos una palabra objetable; (2) cancelar sustancialmente la porción de la señal de audio correspondiente a la al menos una palabra objetable; (3) insertar al menos un código de control en la señal de audio, adaptado el código de control para causar la atenuación de la señal de audio correspondiente a la al menos una palabra objetable. Adicionalmente, la operación de procesamiento puede incluir analizar al menos un canal de la señal de audio. Breve Descripción de los Dibujos La Figura 1 es un diagrama de bloques que ilustra una instalación de procesamiento conforme a la presente invención; La Figura 2 es un diagrama de flujo que ilustra un método para controlar la reproducción de una señal de audio al monitorear una señal de subtitulación para personas con discapacidad auditiva correspondiente a un texto específico y después identificar una porción de la señal de audio correspondiente al texto especificado conforme a la presente invención; La Figura 3 es un diagrama de flujo que ilustra un método para monitorear la señal de subtitulación para personas con discapacidad auditiva para determinar si contiene el texto especificado conforme a la presente invención; La Figura 4 es un diagrama de flujo que ilustra un método para aplicar un algoritmo de letra-a-sonido al texto de la corriente de subtitulación para personas con discapacidad auditiva para definir una representación fonética del texto conforme a la presente invención; La Figura 5 es un diagrama de flujo que ilustra un método para analizar un segmento temporal de una señal de audio para asignar valores de energía conforme a la presente invención; La Figura 6 es un diagrama de flujo que ilustra un método para comparar una forma comparativa del texto de la señal de subtitulación para personas con discapacidad auditiva a una forma comparativa de la señal de audio a fin de controlar la reproducción de la señal de audio, tal como a través de silenciar alguna porción de la señal de audio, conforme a la presente invención; La Figura 7 es un diagrama de flujo que ilustra un método para comparar una forma comparativa del texto de la señal de subtitulación para personas con discapacidad auditiva a una forma comparativa de la señal de audio conforme a la presente invención; y La Figura 8 es una representación gráfica de un alineamiento de tiempo y rutina de puntuación para alinear y comparar una forma comparativa del texto de la señal de subtitulación para personas con discapacidad auditiva a una forma comparativa de la señal de audio conforme a la presente invención Descripción Detallada de las Modalidades de las Invenciones Los aspectos de la presente invención incluyen un receptor de televisión, módulo de conexión para cable o satélite, grabadora de cásete de vídeo, reproductor de DVD u otro aparato de procesamiento de señal de audio configurado para recibir o de otro modo procesar una corriente de audio. En una implementación particular, el aparato de procesamiento de señal de audio se configura para silenciar ciertas palabras, tales como las palabras consideradas objetables para un escucha/espectador particular, dentro de la corriente de audio. Un aparato o método conforme a la presente invención puede proporcionar un mecanismo mediante el cual un usuario puede indicar varias palabras como objetables. Una modalidad conforme a la presente invención analiza la corriente de subtitulación para personas con discapacidad auditiva para detectar la palabra o frase objetable, convierte la palabra de subtitulación para personas con discapacidad auditiva a una representación de audio, y después compara la representación de audio de la subtitulación para personas con discapacidad auditiva a la corriente de audio para identificar la palabra objetable en la corriente de audio. Cuando se identifica la palabra objetable, las modalidades de la invención silencian la presentación de audio de la palabra objetable. Las Figuras 1-8 y la siguiente exposición se proponen para proporcionar una breve, descripción general de un ambiente de computadora o de procesamiento de señal adecuado en el cual las modalidades de la invención pueden implementarse. Aunque no se requiere, las modalidades de la invención se describen en el contexto general de instrucciones ejecutables en computadora, tal como módulos de programa que se ejecutan por uno o más elementos de procesamiento, tal como un procesador de televisión. Generalmente, los módulos de programa incluyen rutinas, programas, objetivos, componentes, estructuras de datos, etc., que llevan a cabo tareas particulares o implementan tipos de datos abstractos particulares. Las instrucciones ejecutables por computadora, las estructuras de datos asociadas y los módulos de programas representan ejemplos del medio del código de programa para ejecutar las etapas de los métodos descritos en la presente. La secuencia particular de tales instrucciones ejecutables o estructuras de datos asociadas representa ejemplos de actos correspondientes para implementar las funciones descritas en tales etapas. Además, el medio de código del programa que se ejecuta por una unidad de procesamiento proporciona un ejemplo de un medio de procesador. La Figura 1 es un diagrama de bloques que ilustra una implementación particular de una plataforma de procesador 10 conforme la presente invención. La plataforma de procesador implementa un analizador de subtitulación para personas con discapacidad auditiva 12 y un analizador de corriente de audio 1 . El analizador de subtitulación para personas con discapacidad auditiva se configura para recibir y procesar una corriente de subtitulación para personas con discapacidad auditiva proveniente de una señal de televisión de audio/video convencional. Como se utiliza en la presente "subtitulación para personas con discapacidad auditiva" se refiere a una señal que define una representación textual de una señal de audio. La señal de audio puede ser análoga o digital, puede codificarse y puede acompañar a una señal de video. La subtitulación para personas con discapacidad auditiva puede comprender letras, espacios, palabras, frases y símbolos. En un ambiente digital, la subtitulación para personas con discapacidad auditiva puede incluir además paquetes de datos, comandos y enlaces de red y otros datos. En un ejemplo particular, la subtitulación para personas con discapacidad auditiva se refiere a una señal que se conforma a las EIA-608 o EIA-708B o estándares de subtitulación para personas con discapacidad auditiva relacionadas. La subtitulación para personas con discapacidad auditiva puede proporcionarse en transmisiones de radiodifusión de televisión análogas o digitales, cable, transmisiones por satélite así como, transmitirse a partir de fuentes de medios almacenados tales como DVDs y lo similar en coordinación con una señal de audio almacenada. Típicamente, para señales de televisión análogas, la corriente de subtitulación para personas con discapacidad auditiva se encuentra presente en la línea 21 del área de datos encontrada en el periodo de suspensión vertical ("VBI") de la señal de televisión. La plataforma del procesador 10 incluye un decodificador convencional de subtitulación para personas con discapacidad auditiva. El analizador de subtitulación para personas con discapacidad auditiva se configura para recibir la señal decodificada de subtitulación para personas con discapacidad auditiva. Sin embargo, el analizador de subtitulación para personas con discapacidad auditiva puede configurarse con un decodificador. Para las señales de televisión digitales, no se proporciona la subtitulación para personas con discapacidad auditiva en un VBI, ya que las señales de televisión digitales no tienen VBI. De preferencia, la señal de subtitulación para personas con discapacidad auditiva se multiplexa con la señal de televisión digital codificada. Para las señales de televisión digitales, la subtitulación para personas con discapacidad auditiva puede extraerse mediante una plataforma de receptor de televisión digital. El analizador de subtitulación para personas con discapacidad auditiva también se configura para recibir una lista de palabras objetables identificadas por un usuario particular. El usuario puede seleccionar las palabras objetables a través de un proceso de selección sobre la pantalla mediante el cual el usuario selecciona varias palabras objetables a partir de una lista de todas las palabras objetables posibles. En una modalidad en base a la televisión, los menús sobre la pantalla con listas de palabras objetables, pueden proporcionar que los usuarios manipulen y seleccionen palabras objetables particulares a través de un control remoto para la televisión, módulo de conexión, receptor, etc. configurado de acuerdo con la presente invención. Alternativamente, el usuario puede entrar directamente a las palabras objetables por medio de un teclado o algún otro dispositivo de entrada de texto similar a las claves de flecha en un control remoto utilizado en conjunto con una visualización del alfabeto sobre la pantalla. Además de "palabras objetables", las modalidades de la invención pueden configurarse para detectar y controlar la reproducción de cualquier texto. El analizador de subtitulación para personas con discapacidad auditiva 12 compara cada palabra en la corriente de subtitulación para personas con discapacidad auditiva con la lista de las palabras objetables identificadas por el usuario. En la identificación de una igualación entre las palabras de la corriente de subtitulación para personas con discapacidad auditiva y las palabras objetables, se transfiere una lista de palabras objetable hacia el analizador de la corriente de audio 14. La lista de palabras objetable, que depende de una implementación particular de la presente invención, puede incluir solo el texto objetable identificado, el texto objetable y el texto precedente o toda la corriente de subtitulación para personas con discapacidad auditiva con el texto objetable y el texto predecesor marcado. Como se utiliza en la presente, el término "texto" se refiere a cualquier componente de una corriente de subtitulación para personas con discapacidad auditiva, tal como letras, palabras, espacios, frases, símbolos y códigos de control. La lista de palabras se pasa hacia un audioprocesador de palabras de subtitulación para personas con discapacidad auditiva 16 que procesa adicionalmente el texto para generar una forma del texto capaz de comparación con la señal de audio o una forma comparativa de la señal de audio, también referida en algunas formas como un equivalente de audio, como se trata abajo. Como con otros elementos de procesamiento, el audioprocesador puede ser un elemento de procesamiento separado, una porción funcional del procesador de televisión, el analizador de subtitulación para personas con discapacidad auditiva o el analizador de la corriente de audio. Éste se muestra por separado para ilustrar mejor los componentes funcionales de la modalidad de la invención de la Figura 1. El analizador de corriente de audio 14 se configura para recibir una corriente de audio, tal como la porción de audio de una señal de televisión análoga o digital. El analizador de corriente de audio 14 puede incluir un elemento de conversión análogo-a-digital a fin de digitalizar la corriente de audio, si ésta todavía no se encuentra en una formato digital. El analizador de corriente de audio se configura para procesar varios algoritmos, tratados en más detalla abajo, para comparar la corriente de audio digitalizada con la lista de palabras objetables identificadas por el analizador de subtitulación para personas con discapacidad auditiva y controlar la reproducción de las palabras objetables en la corriente de audio. En algunas implementaciones, controlar la reproducción comprende silenciar las palabras objetables. Silenciar puede lograrse al definir una corriente de audio modificada en donde la señal de audio para las palabras objetables se suprime o la amplitud o la magnitud se atenúa de otro modo, identificando las palabras objetables con los comandos de silencio insertados en la corriente de audio que procesan subsecuentemente los elementos de lectura y mediante esto silencian el audio objetable y emiten comandos de silencio sincronizados con la presentación de audio a fin de no incluir una versión audible de la palabra objetable. La siguiente exposición describe varias formas de que el analizador de subtitulación para personas con discapacidad auditiva y el analizador de corriente de audio funcionan en conjunto para controlar la reproducción de las palabras objetables de una señal de audio. Es posible que el analizador de subtitulación para personas con discapacidad auditiva 12 y el analizador de corriente de audio puedan codificarse en el mismo procesador, en procesadores separados o pueden definirse en varias configuraciones de hardware. La Figura 2 es un diagrama de flujo que ilustra un método para controlar la reproducción de una presentación de audio, tal como silenciar palabras objetables de acuerdo con la presente invención. Como se mencionó anteriormente, el analizador de subtitulación para personas con discapacidad auditiva recibe la corriente de subtitulación para personas con discapacidad auditiva proveniente de una presentación de audio (operación 200) que puede ser una señal de televisión análoga estándar que incluye la subtitulación para personas con discapacidad auditiva en línea 21 del periodo de suspensión vertical. En una modalidad de la presente invención, la corriente de subtitulación para personas con discapacidad auditiva se recibe antes o contemporáneamente con la corriente de audio asociada. Después, el analizador de subtitulación para personas con discapacidad auditiva busca la corriente de subtitulación para personas con discapacidad auditiva para una lista de palabras objetables (operación 210) . Las palabras objetables se identifican por el usuario/espactador y se almacenan en una memoria que se encuentra en comunicación con el analizador de subtitulación para personas con discapacidad auditiva. Al identificar una palabra objetable en el texto de subtitulación para personas con discapacidad auditiva, el analizador de subtitulación para personas con discapacidad auditiva transmite la palabra objetable y la palabra precedente de la palabra objetable hacia el analizador de corriente de audio. Por ejemplo, en la película "Gone With The Wind" ("Lo que el Viento se Llevó") Clark Gable dice a Vivían Leigh "Frankly Scarlett, I don't give a damn" ("Francamente Scarlett, me importa un pito") . Si el usuario indica que la palabra "damn" ("pito") es objetable, entonces la palabra "damn" se almacena en la lista de palabras objetables. Cuando la señal de subtitulación para personas con discapacidad auditiva para la referencia arriba citada se recibe por el analizador de subtitulación para personas con discapacidad auditiva, identificará la palabra "damn" como objetable para el usuario actual y transmitirá la palabra "damn" así como la palabra precedente "a" ("un") hacia el analizador de corriente de audio . Para comparar adecuadamente las palabras objetables (inicialmente en la forma de texto) con la corriente de audio, el texto objetable y el texto predecesor se convierten a una forma para su comparación con la señal de audio (operación 20) . En una implementación, en el audioprocesador, el texto predecesor y el texto objetable se procesan con un algoritmo de letra-a-sonido que convierte el texto a una representación fonética. La representación fonética se caracteriza subsecuentemente por una duración promedio o típica del texto y una representación de la energía total típica y las energías específicas en varias bandas de frecuencia para la palabra a fin de proporcionar un equivalente de audio del texto. Al mismo tiempo, a medida que el texto de subtitulación para personas con discapacidad auditiva se procesa o preferentemente subsecuente al procesamiento del texto de subtitulación para personas con discapacidad auditiva, la corriente de audio también se procesa en la forma para la comparación (operación 230) . En un ejemplo tratado abajo, la corriente de audio se procesa para determinar la energía total y las energías particulares de las bandas de frecuencia particulares para los intervalos de tiempo discretos de la corriente de audio. El procesamiento del texto de subtitulación para personas con discapacidad auditiva y el procesamiento de la corriente de audio presentan el texto de subtitulación para personas con discapacidad auditiva y la corriente de audio en un formato que se somete a comparación. Una vez que el texto objetable y el predecesor y la corriente de audio se representan en formatos similares, pueden identificarse las palabras objetables en la corriente de audio (operación 240) . Como tal, el texto objetable se iguala con una secuencia de audio particular en la corriente de audio. Cuando se identifica una igualación entre el texto objetable y el texto precedente con la corriente de audio, los comandos de silencio u otros procesamientos de silencio ocurren de manera que la corriente de audio y el procesador de televisión asociado silencian el audio objetable (operación 250) . Así, el método descrito con respecto a la Figura 2, permite que un televisor u otro dispositivo de audio o audio/visual reproduzca una secuencia de audio con las palabras, frases o audio objetables generalmente silenciados. Como se utiliza en la presente, el término "silencio" se propone que se refiera a una condición en donde el volumen de una secuencia de audio se ha reducido, pero no necesariamente reducido a cero. En algunas modalidades de la presente invención, una palabra o frase silenciada en una secuencia de audio será audible, pero el volumen de la palabra silenciada será menor que el de las palabras adyacentes. La Figura 3 es un diagrama de flujo que ilustra un método particular para analizar el texto de subtitulación para personas con discapacidad auditiva para averiguar ya sea si incluye palabras o frases identificadas por el usuario como objetables. En una implementación particular de la presente invención, en el proceso de selección de palabra objetable, el usuario puede seleccionar palabras particulares para excluirlas de la presentación de audio así como palabras raíz para excluirlas de la presentación de audio. Las palabras raíz objetables se almacenan en una lista de filtro de palabra raíz . Las "Palabras raíz" generalmente se refieren a ciertas palabras objetables, tales como "damn" que puede ser una palabra raíz en un huésped de palabras y frases objetables, tal como "damnit" y "***damnit" . Con la lista de filtro de la palabra raíz, cualquier palabra que incluye la palabra raíz puede filtrarse y retirarse de la porción de audio de la presentación. Las palabras objetables completas se almacenan en una lista de palabras excluidas. Un usuario puede seleccionar palabras objetables a través de una variedad de mecanismos. En una implementación, un menú de selección sobre la pantalla se despliega sobre una pantalla, e.g., un monitor de televisión. El menú incluye numerosas palabras y frases potencialmente objetables que un usuario puede seleccionar solas o en combinación, utilizando un control remoto adaptado para comunicarse con el menú sobre la pantalla. El menú también puede incluir agrupamientos y niveles de palabras objetables. Refiriéndose a la Figura 3, el analizador de subtitulación para personas con discapacidad auditiva compara la corriente del texto de subtitulación para personas con discapacidad auditiva con la palabra raíz (operación 300) . La comparación puede llevarse a cabo en serie, sobre una base de palabra-por-palabra a mediada que se recibe cada una. La comparación también puede llevarse a cabo sobre una base de segmento-por-segmento de la corriente de subtitulación para personas con discapacidad auditiva. El inicio y el fin del texto de subtitulación para personas con discapacidad auditiva incluye los marcadores que indican cuándo desplegar un segmento de subtitulación para personas con discapacidad auditiva. Las modalidades de la invención pueden también configurarse para analizar segmentos de texto que ocurren entre los marcadores . Si el texto en la corriente de subtitulación para personas con discapacidad auditiva incluye una palabra raíz objetables, entonces el texto que incluye la palabra raíz se marca como objetable junto con la palabra precedente. Después, la corriente de subtitulación para personas con discapacidad auditiva se compara con la lista de filtro de palabras excluidas (operación 310) . Cualquier texto objetable y el texto precedente se marcan. Como se tratará en mayor detalle abajo, el texto que precede al texto objetable puede utilizarse para identificar el inicio de un silencio (i.e., el final de la secuencia de audio para la palabra que precede una palabra objetable puede ser el inicio de un silencio) . Además de la marcación, también es posible cargar la palabra precedente, entonces la palabra objetable se introduce en una memoria intermedia de primera-entrada-primera-salida (FIFO) . La palabra precedente entonces palabra objetable se procesa entonces en un orden FIFO para una forma de comparación. Cuando se hace una igualación al audio, con el texto precedente, este se desecha. Entonces cuando se hace una igualación al texto objetable este de desecha. Así, las operaciones ocurren en un orden FIFO a partir de la identificación de la palabra en la subtitulación para personas con discapacidad auditiva para silenciar el audio debido a la relación temporal secuencial entre la subtitulación para personas con discapacidad auditiva y el audio asociado. En algunas implementaciones, el texto objetable, ya sea de la palabra raíz o la lista de palabras excluidas, se analiza adicionalmente para determinar si es de hecho una palabra que es permisible u objetable dependiendo del contexto de su uso (operación 330) . Por ejemplo, la palabra "bitch" ("perra") puede permitirse si se utiliza en el contexto de una discusión concerniente a un perro, pero no de otro modo. Para determinar si esta es permisible, en una implementación se hace una comparación a todas las otras palabras en la frase de subtitulación para personas con discapacidad auditiva para intentar averiguar el contexto del uso de la palabra. Así, por ejemplo, si la palabra "dog" se menciona en la misma frase, entonces la palabra puede permitirse y no identificarse como objetable. Otros métodos se muestran como se describe en la solicitud de patente provisional de E.U. No. 60/481,548 titulada "Parental Control Filter Settings Based on Information Associated with the Media Content" ("Graduación del Filtro de Control Paterno con Base en la Información Asociada con el Contenido de los Medios") presentada en Octubre 23 de 2004 que se incorpora en la presente mediante esta referencia. Si no existen igualaciones, entonces el procesador determina si se ha detectado el final de la corriente de subtitulación para personas con discapacidad auditiva (operación 340) . Como se mencionó arriba, una corriente de subtitulación para personas con discapacidad auditiva típicamente incluye un indicador para el inicio de un segmento de subtitulación para personas con discapacidad auditiva y el final de un segmento de subtitulación para personas con discapacidad auditiva. En el ejemplo establecido arriba, un segmento de subtitulación para personas con discapacidad auditiva puede incluir la frase "Franklyn Scarlett, I don't give a damn". El texto de subtitulación para personas con discapacidad auditiva para ese segmento de audio incluiría un indicador que precede la palabra "Frankly" y un indicador después de la palabra "damn" . Si se detecta el final de la frase, entonces la memoria intermedia de texto y el analizador de corriente silenciada se vacían, siempre que la palabra objetable haya provenido de la presentación de audio. En un arreglo FIFO de palabra-por-palabra, la operación 340 no se implementa. Si el final de la frase no se detecta, entonces la siguiente palabra se analiza contra la lista de palabras raíz y la lista de palabras excluidas como se citó arriba. La Figura 4 es un diagrama de flujo que ilustra una implementación de la presente invención en donde el texto de subtitulación para personas con discapacidad auditiva objetable y el texto precedente se convierten a una representación fonética, como parte del proceso para proporcionar el texto objetable, sobre una base de letra-por-letra, como un equivalente de audio. En el ejemplo particular del diagrama de flujo de la Figura 4, se emplea un algoritmo de letra-a-sonido para convertir una representación textual del texto precedente y del texto objetable a una representación fonética. Se encuentran disponibles numerosos algoritmos de letra-a-sonido. En un ejemplo, la representación fonética se descompone en cinco categorías principales, incluyendo una categoría para los espacios; una categoría para las vocales, diptongos y semi-vocales; una categoría para detenciones; una categoría para nasales; y una categoría para fricativos, murmullos y africativos. En la primera operación, se analizó el texto para determinar si este incluye un espacio (operación 400) . Un espacio puede determinarse mediante el silencio prolongado o la falta de propiedades asociadas con sonidos vocales. Si el algoritmo letra-a-sonido determina que el texto incluye un espacio, entonces se asigna un "—" (operación 405) . Después se analiza el texto para determinar ya sea si incluye una vocal, diptongo o semi-vocal (operación 410) . Típicamente las vocales, diptongos y se i-vocales se caracterizan por niveles de alta energía en frecuencias bajas. Un ejemplo incluye las vocales a, e, i, o, u y las combinaciones de letras tales como "ou" , "ow" , "oi" así como semi-vocales w, 1, r y y. Además, las vocales, diptongos y semi-vocales pueden dividirse en vocales de frecuencia mayor, tales como "ee" encontrada en la palabra "beet" así como vocales de baja frecuencia como "oo" en la palabra "boot" . Si el algoritmo letra-a-sonido determina que las letras de una palabra incluyen una vocal, entonces se asigna una "V" (operación 415) . Después, el texto predecesor o texto objetable se analiza para determinar si incluye una detención (operación 420) . Una detención se caracteriza por un corto periodo durante el cual la boca se cierra completamente seguido por un estallido de sonido. En un ejemplo, las detenciones sin voz tales como p, t y k se distinguen de las detenciones de voz tales como b, d y g. Si el algoritmo letra-a-sonido determina que las letras de una palabra incluyen una detención, entonces se asigna una "S" (operación 425) . Después el texto predecesor o el texto objetable se analizan para determinar si incluye un sonido nasal (operación 430) . El sonido nasal se caracteriza típicamente con un sonido de frecuencia inferior que viene desde la cavidad nasal en lugar de la boca, tal como en la pronunciación de m, n y ng. Si el algoritmo letra-a-sonido determina que el texto incluye un nasal, entonces se asigna una "N" (operación 435) . Finalmente, el texto predecesor o el texto objetable se analizan para determinar si incluyen un fricativo, murmullo o africativo. Los fricativos, murmullos y africativos se caracterizan por la energía concentrada en frecuencias mayores y se producen por la fuerza de respiración a través de un pasaje constreñido, tal como en el sonido asociado con las letras v, ph, z, zh (como en "azure"), f, s, sh, j, ch y h. Si el algoritmo de letra-a-sonido determina que el texto incluye un fricativo, murmullo o africativo, entonces se asignará una "F" (operación 445) . Cada palabra se caracteriza completamente; así, en la operación 450, el algoritmo determina si la palabra es completa. Si no, el análisis continúa iniciando con la primera operación 400. Analizar el texto predecesor y el texto objetable a través de un algoritmo de letra-a-sonido asigna una frase o palabra a uno de los identificadores anteriores, i.e., --, V, S, N y F. Como tal, la frase Frankly Scarlett, I don't give a damn" se convierte a una cadena de símbolos . La palabra predecesora "a" incluiría el identificador "V" seguido por el identificador de espacio y después la palabra damn se identifica por los símbolos S, V y N, con S representando una detención para la letra "d", V representando la vocal "a" y N representando las letras nasales "mn" . La Figura 5 es un diagrama de flujo que ilustra un método para analizar o procesar la señal de audio en la preparación para la comparación contra la forma comparable del texto objetable identificado de la señal de subtitulación para personas con discapacidad auditiva. Primero, el analizador de corriente de audio recibe la señal de audio digitalizada y los segmentos de la señal de audio en una serie de porciones de 20 milisegundos (operación 500) . Cada porción de 20 milisegundos de la señal de tiempo análoga o digitalizada de aquí en adelante se refiere como un "módulo de sonidos vocales" . El analizador de corriente de audio computa la energía total para cada módulo de sonidos vocales (operación 510) . En un ejemplo, la energía total del intervalo de tiempo es la suma del cuadrado de las amplitudes normalizadas por el promedio de la energía a largo plazo a normalizarse para la de intensidad de señal promedio.
Adicionalmente, se determina además la energía de varias bandas de frecuencia del módulo de sonidos vocales (operaciones 520-540) . En un ejemplo, el analizador de audio determina la energía del módulo de sonidos vocales en la banda de frecuencia de 150-1500 Hz (operación 520) , la banda de frecuencia de 1500-3000 Hz (operación 530) y la banda de frecuencia por arriba de 3000 Hz (operación 540) . En un ejemplo, cada medición de banda de energía se normaliza para ser un porcentaje de la energía total. Tales determinaciones de energía pueden lograrse a través de filtración digital, tal como con una Fast Fourier Transform (Transformada de Fourier Rápida) , seguida por una suma para determinar las bandas de frecuencia. Alternativamente, pueda emplearse un procedimiento de coeficiente cepstral, en lugar de la energía de banda. Determinar la energía total y las energías de banda de frecuencia proporciona cuatro características distintas que capturan información suficiente para distinguir las categorías de sonidos de lenguaje (i.e., --, V, S, y F) definidos con respecto al texto de subtitulación para personas con respecto al texto de subtitulación para personas con discapacidad auditiva. Se reconocerá que un sonido de lenguaje no es una sola representación del número 4 de las energías, sino una serie de representaciones de energía de 4 números para cada intervalo de tiempo a través de un intervalo de tiempo que contiene el sonido. La Figura 6 es un diagrama de flujo que ilustra un método para comparar la forma comparativa del texto predecesor y el texto objetable con la forma comparativa de la corriente de audio para determinar cuándo debe ocurrir un silencio. A fin de comparar adecuadamente el texto con la señal de audio, el texto puede procesarse además para prolongar la(s) representación (es) del símbolo fonético del texto hasta la duración promedio del tipo de sonido y además asociarse con las características de energía adecuadas del sonido. Como se mencionó antes, la señal de audio se descompone en módulos de tiempo de 20 milisegundos y cada intervalo de tiempo de 20 milisegundos se caracteriza por la energía total y la energía en tres bandas de frecuencia particulares. Como tal, la señal de audio se caracteriza ampliamente por tiempo y energía. Así, la representación fonética del texto predecesor y el texto objetable se caracterizan además por el tiempo y la energía para propósitos de compararse a la señal de audio. Primero, la representación fonética del texto precursor y el texto objetable es el tiempo prolongado a asociarse con la duración promedio del tipo de sonido (operación 600) . La duración promedio de cada tipo de sonido puede determinarse a través de la experimentación. Por ejemplo, si un sonido vocal promedia 160 milisegundos, este se repite a través de ocho módulos de tiempo de 20 milisegundos. En la operación de prolongar el tiempo, cada símbolo se prolonga a través de la duración promedio para ese símbolo. Como tal, una vocal se prolonga 160 milisegundos. Así, por ejemplo, la "a" en "damn" fonéticamente representada como una "V" se prolongaría durante 160 milisegundos. Además de la duración del tiempo para cada representación fonética, cada representación fonética también se asocia con un valor de energía total y los valores de energía en las mismas bandas de frecuencia como la señal de audio (i.e., 150-1500 Hz, 1500-3000 Hz y por arriba de 3000 Hz) (operación 610) . En un ejemplo, para cada símbolo fonético, se proporciona una matriz de valores de energía típicos sobre un intervalo de tiempo dado. Así, por ejemplo, para un sonido vocal que promedia 160 milisegundos, se proporciona una matriz de energía para los valores de energía durante el rango de 160 milisegundos. La matriz o "modelo" pueden desarrollarse para cada símbolo fonético a través de la experimentación de diferentes pronunciaciones de los diversos símbolos y letras presentadas en los símbolos fonéticos. Como tal, la matriz puede incluir muchas diferentes representaciones de sonido para cada símbolo fonético. Las técnicas de matrizar se muestran como se describe en "Cluster Analysis and Unsupervised Learning" ("Análisis de Grupo y Aprendizaje no Supervisado") por Meisel, Computer-Oriented Approaches to Pattern Recognition, Academic Press, 1972, que se incorpora en la presente mediante esta referencia. Cuando el texto de subtitulación para personas con discapacidad auditiva se encuentra en su forma comparativa, éste se compara con la forma comparativa de la corriente de audio (con valores de energía) (operación 620) . Si existe una igualación (operación 630) , entonces un código o comando mudo se establece en la corriente de audio después del final del texto predecesor (operación 630) . El silencio en la indicación de un texto predecesor igualado puede lograrse en tres configuraciones diferentes de la presente invención. En una configuración, el analizador de audio emite un comando de silencio contemporáneamente con la detección del final del texto predecesor. El comando de silencio provoca que el audio se silencie momentáneamente. Si el comando tiene una cierta latencia en comparación a la corriente de audio, entonces pueden emplearse varios mecanismos de latencia para retardar el comando suficientemente de manera que se sincronice con la reproducción actual de la corriente de audio. En otra configuración, la corriente de audio se modifica de manera que los datos de audio después del final del lenguaje predecesor se suprimen o atenúan. La supresión o atenuación continúan hasta la detección del final del texto objetable. Finalmente, en una tercera alternativa, un comando digital puede insertarse en la corriente de audio entre el texto predecesor y el texto objetable. En la detección del comando de silencio en la corriente de audio, el audio se silenciará momentáneamente de acuerdo con el código de comando insertado en la corriente de audio digitalizada. Después de la comparación del texto predecesor, la forma de comparación de audio del texto objetable se compara con la forma de comparación de la corriente de audio (operación 650) . En la detección de una igualación (operación 660) , un segundo código o comando de silencio se emite al final del lenguaje objetable (operación 670) . En una modalidad que emite un comando para silenciar el audio, al final del lenguaje objetable se emite un comando para reproducir una vez más el audio a su volumen normal, i.e., deshabilitar el silencio. En una modalidad en donde la corriente de audio digitalizada se atenúa o suprime, en la detección del final de la palabra objetable, la operación de supresión o atenuación se descontinúa y la corriente de audio ya no se modifica. Finalmente, en las modalidades que emplean un comando integrado dentro de la corriente de audio digitalizada, puede insertarse un comando subsecuente de no silencio en la corriente de audio en una ubicación después del final de la palabra objetable. La Figura 7 es un diagrama de flujo que ilustra un método para comparar la forma comparativa del texto ya sea predecesor u objetable, con la forma comparativa de la corriente de audio. La primera operación involucra un alineamiento de tiempo entre la forma comparativa del texto (la "señal predicha") y la forma comparativa de la señal de audio (la "señal observada") (operación 700) . En una implementación particular, el alineamiento de tiempo se logra a través de un modelo ampliamente reconocido que iguala el sistema de reconocimiento de lenguaje referido generalmente como desviación dinámica de tiempo. La Figura 8 ilustra un ejemplo de un alineamiento de tiempo entre la señal observada y la señal predicha en base al algoritmo de desviación dinámica de tiempo. La señal predicha se genera de acuerdo con un método descrito en la presente de la Figura 4, y las operaciones 600 y 610 de la Figura 6. La señal observada se genera de acuerdo con el método descrito en la presente con respecto a la Figura 5. Como se trató arriba, la señal observada es una serie de cuatro vectores dimensionales que involucra la energía total y la energía de la banda de frecuencia de 150-1500 Hz, la banda de frecuencia de 1500-3000 Hz y la banda de frecuencia mayor a 3000 Hz. Además, cada uno de los cuatro vectores dimensionales comprende un intervalo de 20 mílisegundos . En el ejemplo de la Figura 8, existen catorce intervalos de tiempo de 20 milisegundos y cuatro vectores dimensionales asociados (xl-xl4) . El algoritmo de desviación dinámica de tiempo encuentra la mejor igualación de la secuencia de la señal predicha ( -FFFWVWVVNN) para la señal observada a través del uso de una "puntuación" para medir la igualación entre los valores predichos y los valores observados, utilizando la puntuación total para decidir la mejor forma de igualación. El algoritmo de desviación dinámica de tiempo también toma en cuenta el deseo de no "alargar" un valor predicho a través de demasiados valores actuales o viceversa. El resultado puede ser una mejor asignación que iguala los intervalos de valores predichos a los reales como arriba. Si es así, el algoritmo predice que la frase que se iguala, e.g., la frase predecesora, finaliza en el intervalo de la señal observada X14 y el silencio debe empezar después de ese intervalo de tiempo, cuando iguala el texto predecesor. Así, durante el procesamiento, cuando se detecta el final del texto predecesor, se inicia el silencio por cualquiera de los diversos métodos tratados en la presente . Si el audio no iguala el lenguaje razonablemente, tal como debido a un error, trascripción aproximada o ruido de fondo excesivo, entonces la puntuación indicará una igualación deficiente y no se tomará ninguna acción en base a la puntuación. Como parte del alineamiento de tiempo, se crea una puntuación a través de comparar la igualación de un solo segmento de tiempo observado (con cuatro valores característicos) con un segmento de tiempo predicho, caracterizado por una de las cinco categorías fonéticas, e.g., vocal (V). Como se anotó en la sección previa sobre convertir el texto a un equivalente de audio, una opción es tener valores "típicos" para cada característica, e.g., al promediar sobre ejemplos típicos de esa categoría durante la fase de desarrollo. La puntuación es entonces la mejor igualación de los valores típicos para los valores observados. La igualación puede medirse mediante una simple medición de "distancia" , la suma de las diferencias cuadradas en cada característica: en la anotación del vector ||X0bservado- Xobjeti-vol.2 , para dar el cuadrado de la distancia. Si la igualación es exacta, la puntuación es cero. La mejor igualación se categoriza por la puntuación total más baja.
Una variación es ponderar las características diferencialmente, e.g., para ponderar la energía total más que la energía en cada banda de frecuencia, si esto mejora el desempeño. Si existe más de un ejemplo típico (modelo) para cada categoría de lenguaje, como se sugirió previamente, la puntuación es la mínima sobre todos los modelos en la categoría. MlHi [||Xobservado '"Xobjetivo-i|| J En resumen, con la selección de la función de puntuación y un algoritmo tal como la desviación dinámica de tiempo para utilizar la función de puntuación, se especifica el algoritmo para determinar cuando la frase termina. Una modalidad alternativa de la presente invención no involucra el análisis de la señal de subtitulación para personas con discapacidad auditiva. De preferencia, se recibe la señal de audio y se almacena en una memoria. La señal de audio almacenada se procesa entonces con un algoritmo de reconocimiento de sonidos vocales . Tal algoritmo de reconocimiento de lenguaje puede tomar en cuenta la amplitud, frecuencia, longitud de onda y numerosos otros factores al analizar la señal de audio. Cada palabra, frase, etc. identificada por el algoritmo de reconocimiento de sonidos vocales se compara con las palabras objetables identificadas por el usuario y/o las palabras raíz objetables identificadas por el usuario. La secuencia de audio igualada se atenúa directamente en la memoria a través de manipular el segmento de la señal almacenada o un código de silencio incluido en la señal almacenada. En el caso de que la señal de audio incluya palabras habladas y otros sonidos, i.e., ruido de fondo, música, ruido ambiental, etc., entonces pueden emplearse varias técnicas de filtrado para separar las palabras habladas de los otros sonidos. Adicionalmente, para señales de audio de múltiples pistas, e.g., un canal central, canales frontales, canales posteriores, etc., entonces cada pista de audio puede analizarse por separado. Típicamente, el canal central incluye mucho o todo de las palabras habladas en una señal de audio multicanal. Como tal, esto puede ser suficiente para analizar solo el canal central. Las modalidades de la presente invención pueden comprender una computadora de propósito especial o de propósito general incluyendo varios hardware de computadora, un sistema de televisión, un sistema de audio y/o combinaciones de lo anterior. Estas modalidades se tratan en detalle abajo. Sin embargo, en todos los casos, las modalidades descritas deben observarse como ejemplificativas de la presente invención en lugar de limitar su alcance. Las modalidades dentro del alcance de la presente invención también incluyen medios legibles por computadora para llevar o tener instrucciones ejecutables por computadora o estructuras de datos almacenadas en los mismos . Tales medios legibles por computadora pueden ser cualquier medio disponible que pueda accesarse por una computadora de propósito general o de propósito especial tal como los elementos de procesamiento de una televisión, módulo de conexión, etc. A manera de ejemplo y sin limitación, tal medio legible por computadora puede comprender RAM, ROM, EEPROM, CD-ROM, DVD u otros almacenamientos de disco óptico, almacenamiento de disco magnético u otros dispositivos de almacenamiento magnético o cualquier otro medio que puede utilizarse para llevar o almacenar los medios de código del programa deseado en la forma de instrucciones ejecutables por computadora o estructuras de datos y que puedan accesarse mediante una computadora de propósito general o de propósito especial . Cuando se transfiere o proporciona la información a través de una red u otros enlaces o conexiones de comunicaciones (ya sea alambica o inalámbrica o una combinación de alambica e inalámbrica) hacia una computadora, la computadora observa adecuadamente la conexión como un medio legible por computadora. Así, cualquier conexión se llama adecuadamente medio legible por computadora. Las combinaciones de lo anterior deben también incluirse dentro del alcance de los medios legibles por computadora. Las instrucciones ejecutables por computadora comprenden por ejemplo, instrucciones y datos que ocasionan que una computadora de propósito general, computadora de propósito especial o dispositivo de procesamiento de propósito especial lleve a cabo una cierta función o grupo de funciones . La Figura 1 y la exposición asociada se proponen para proporcionar una breve descripción general de un ambiente de cómputo adecuado en el cual puede implementarse la invención. Aunque no se requiere, la invención se describe en el contexto general de las instrucciones ejecutables por computadora, tal como módulos de programa que se ejecutan por uno o más elementos de procesamiento, tal como un procesador de televisión. Generalmente, los módulos de programa incluyen rutinas, programas, objetivos, componentes, estructuras de datos, etc., que llevan a cabo las tareas particulares o implementan los tipos de datos abstractos particulares. Las instrucciones ejecutables por computadora, estructuras de datos asociadas y módulos de programa representan ejemplos de los medios de código del programa para ejecutar las etapas de los métodos descritos en la presente. La secuencia particular de tales instrucciones ejecutables o estructuras de datos asociadas representan ejemplos de acciones correspondientes para implementar las funciones descritas en tales etapas. Además, los medios de código del programa que se ejecutan por una unidad de procesamiento proporciona un ejemplos de un medio procesador.

Claims (52)

  1. REIVINDICACIONES 1. Un método para controlar la reproducción de una señal de audio que comprende : recibir una señal de subtitulación para personas • 5 con discapacidad auditiva; analizar la señal de subtitulación para personas con discapacidad auditiva para un texto especificado; identificar el texto especificado; analizar una señal de audio como una función de la 10 identificación del texto especificado a partir de la señal de subtitulación para personas con discapacidad auditiva; y controlar la reproducción de la señal de audio correspondiente al texto especificado.
  2. 2. El método de la reivindicación 1, en donde la 15 operación de controlar la reproducción comprende además atenuar una porción de la señal de audio correspondiente a el texto especificado de la señal de subtitulación para personas con discapacidad auditiva.
  3. 3. El método de la reivindicación 1, en donde la 20 operación de controlar la reproducción comprende además cancelar sustancialmente la porción de la señal de audio correspondiente al texto especificado de la señal de subtitulación para personas con discapacidad auditiva.
  4. 4. El método de la reivindicación 1, en donde la 25 operación de controlar la reproducción comprende además emitir al menos un comando adaptado para ocasionar la atenuación de una porción de la señal de audio correspondiente a el texto especificado de la señal de subtitulación para personas con discapacidad auditiva.
  5. 5. El método de la reivindicación 1, en donde la operación de controlar la reproducción comprende además insertar al menos un código de control en la señal de audio, adaptado el código de control para ocasionar la atenuación de una porción de la señal de audio correspondiente a el texto especificado de la señal de subtitulación para personas con discapacidad auditiva.
  6. 6. El método de la reivindicación 1, que comprende además la operación de convertir el texto especificado a una representación fonética del texto especificado.
  7. 7. El método de la reivindicación 6, que comprende además prolongar el tiempo de la representación fonética del texto especificado para definir una representación fonética de tiempo prolongado del texto especificado.
  8. 8. El método de la reivindicación 7, que comprende además determinar al menos un valor de energía para la representación fonética de tiempo prolongado del texto especificado para definir una forma comparativa del texto especificado.
  9. 9. El método de la reivindicación 8, que comprende además determinar al menos un valor de energía por la señal de audio para definir una forma comparativa de la señal de audio.
  10. 10. El método de la reivindicación 9, en donde la operación de analizar una señal de audio comprende además la operación de comparar la forma comparativa del texto especificado con la forma comparativa de la señal de audio.
  11. 11. El método de la reivindicación 10, en donde la operación de comparar comprende además identificar la porción de la señal de audio correspondiente a el texto especificado.
  12. 12. El método de la reivindicación 1, en donde el texto especificado se selecciona del grupo que comprende un espacio, una letra, una palabra, una frase, una oración, un código de control y un símbolo.
  13. 13. El método de la reivindicación 1, en donde el texto especificado se selecciona por un usuario.
  14. 14. El método de la reivindicación 1, en donde el texto especificado se selecciona a partir de un texto considerado objetable.
  15. 15. El método de la reivindicación 1, en donde la operación de identificar el texto especificado comprende además la operación de identificar un texto precedente, precediendo temporalmente el texto precedente al texto especificado.
  16. 16. El método de la reivindicación 15, en donde la operación de analizar una señal de audio como una función de la identificación del texto especificado de la señal de subtitulación para personas con discapacidad auditiva comprende además analizar la señal de audio como una función de la identificación del texto precedente de la señal de subtitulación para personas con discapacidad auditiva.
  17. 17. El método de la reivindicación 16, en donde la operación de controlar la reproducción de la señal de audio correspondiente al texto especificado comprende además controlar la reproducción de la señal de audio correspondiente al texto precedente .
  18. 18. El método de la reivindicación 6, en donde la operación de convertir el ' texto especificado a una representación fonética del texto especificado comprende aplicar un algoritmo de letra-a-sonido al texto especificado.
  19. 19. El método de la reivindicación 1, en donde la operación de analizar una señal de audio como una función de la identificación del texto especificado de la señal de subtitulación para personas con discapacidad auditiva comprende aplicar un algoritmo de desviación dinámica de tiempo .
  20. 20. Un procesador que comprende una pluralidad de instrucciones ejecutables por computadora configuradas para llevar a cabo el método de la reivindicación 1.
  21. 21. El método de la reivindicación 6, que comprende además determinar al menos un valor de energía para la representación fonética del texto especificado para definir una forma comparativa del texto especificado.
  22. 22. El método de la reivindicación 21, que comprende además determinar al menos un valor de energía para la señal de audio para definir una forma comparativa de la señal de audio.
  23. 23. El método de la reivindicación 22, en donde la operación de analizar una señal de audio comprende además la operación de comparar la forma comparativa del texto especificado con la forma comparativa de la señal de audio.
  24. 24. El método de la reivindicación 23, en donde la operación de comparar comprende además identificar la porción de la señal de audio correspondiente a el texto especificado.
  25. 25. Un método para controlar la reproducción de una señal de audio que comprende: convertir una porción especificada de una señal de texto de subtitulación para personas con discapacidad auditiva a un audio equivalente de la porción especificada; comparar el audio equivalente de la porción especificada de la señal de texto de subtitulación para personas con discapacidad auditiva a una señal de audio para identificar una porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva; y controlar la reproducción de la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  26. 26. El método de la reivindicación 25, en donde la operación de controlar la reproducción comprende además atenuar la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  27. 27. El método de la reivindicación 25, en donde la operación de controlar la reproducción comprende además cancelar sustancialmente la porción de la señal de audío correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  28. 28. El método de la reivindicación 25, en donde la operación de controlar la reproducción comprende además emitir al menos un comando adaptado para ocasionar la atenuación de la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  29. 29. El método de la reivindicación 25, en donde la operación de controlar la reproducción comprende además insertar al menos un código de control en la señal de audio, estando adaptado el código de control para ocasionar la atenuación de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  30. 30. El método de la reivindicación 25, en donde la operación de convertir una porción especificada de una señal de texto de subtitulación para personas con discapacidad auditiva a un audio equivalente de la porción especificada comprende además la operación de convertir la porción especificada de la señal de subtitulación para personas con discapacidad auditiva a una representación fonética de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  31. 31. El método de la reivindicación 30, que comprende además prolongar el tiempo de la representación fonética de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva para definir una representación fonética de tiempo prolongado.
  32. 32. El método de la reivindicación 31, que comprende además determinar al menos un valor de energía para la representación fonética de tiempo prolongado para definir una forma comparativa de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  33. 33. El método de la reivindicación 32, que comprende además determinar al menos un valor de energía para la señal de audio para definir una forma comparativa de la señal de audio .
  34. 34. El método de la reivindicación 33, en donde la operación de comparar comprende además la operación de comparar la forma comparativa de la porción especificada de la señal de subtitulación para personas con discapacidad auditiva con la forma comparativa de la señal de audio.
  35. 35. El método de la reivindicación 34, en donde la operación de comparar comprende además identificar la porción de la señal de audio correspondiente a la porción especificada de la señal de subtitulación para personas con discapacidad auditiva.
  36. 36. Un procesador que comprende una pluralidad de instrucciones ejecutables por computadora configurado para llevar a cabo el método de la reivindicación 25.
  37. 37. Un método para controlar la reproducción de una señal de audio que comprende: recibir una indicación de al menos una palabra objetable; identificar la al menos una palabra objetable en una señal de subtitulación para personas con discapacidad auditiva; e identificar la al menos una palabra objetable en una señal de audio como una función de la operación para identificar la al menos una palabra objetable en una señal de subtitulación para personas con discapacidad auditiva.
  38. 38. El método de la reivindicación 37 que comprende además controlar una presentación de audio de la señal de audio como una función de la operación de identificación.
  39. 39. El método de la reivindicación 38, que comprende además silenciar la presentación de audio de una porción de la señal de audio correspondiente a la al menos una palabra objetable.
  40. 40. El método de la reivindicación 38 que comprende además identificar una porción "de la señal de subtitulación para personas con discapacidad auditiva precedente a la palabra objetable.
  41. 41. El método de la reivindicación 40, en donde la porción precedente se selecciona del grupo que comprende un espacio, una letra, una palabra, una frase, un símbolo y una señal de control de subtitulación para personas con discapacidad auditiva.
  42. 42. El método de la reivindicación 40, que comprende además identificar la al menos una palabra objetable en una señal de audio como una función de la operación para identificar la al menos una palabra objetable en una señal de subtitulación para personas con discapacidad auditiva y la operación de identificar una porción de la señal de subtitulación para personas con discapacidad auditiva precedente a la palabra objetable.
  43. 43. El método de la reivindicación 42, en donde la operación de controlar es una función de la identificación de una porción de la señal de subtitulación para personas con discapacidad auditiva precedente a la palabra objetable.
  44. 44. El método de la reivindicación 43, que comprende además ocasionar un silencio de la presentación de audio como una función de la identificación de la porción de la señal de subtitulación para personas con discapacidad auditiva precedente a la palabra objetable en la corriente de audio.
  45. 45. El método de la reivindicación 44, que comprende además terminar el silencio como una función de la identificación de al menos una palabra objetable en la señal de audio.
  46. 46. Un procesador que comprende una pluralidad de instrucciones ejecutables por computadora configuradas para llevara a cabo el método de la reivindicación 37.
  47. 47. Un método para controlar la reproducción de una presentación de audio que comprende : recibir una indicación de al menos una palabra objetable; recibir una señal de audio; almacenar la señal de audio en una memoria; procesar la señal de audio almacenada para determinar si se encuentra presente en la señal de audio la al menos una palabra objetable; y controlar la presentación de audio de la señal de audio como una función de la operación del procesamiento.
  48. 48. El método de la reivindicación 47 en donde la operación de controlar comprende además atenuar la porción de la señal de audio correspondiente a la al menos una palabra objetable.
  49. 49. El método de la reivindicación 47, en donde la operación de controlar comprende además cancelar sustancialmente la porción de la señal de audio correspondiente a la al menos una palabra objetable.
  50. 50. El método de la reivindicación 47, en donde la operación de controlar comprende además insertar al menos un código de control en la señal de audio, estando adaptado el código de control para ocasionar la atenuación de la señal de audio correspondiente a la al menos una palabra objetable.
  51. 51. El método de la reivindicación 46 en donde la operación de procesamiento comprende además analizar al menos un canal de la señal de audio.
  52. 52. Un procesador que comprende una pluralidad de instrucciones ejecutables por computadora configurado para llevara a cabo el método de la reivindicación 47.
MXPA06002241A 2003-08-26 2004-08-26 Metodo y aparato para controlar el funcionamiento de una senal de audio. MXPA06002241A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US49776903P 2003-08-26 2003-08-26
PCT/US2004/027882 WO2005020034A2 (en) 2003-08-26 2004-08-26 Method and apparatus for controlling play of an audio signal

Publications (1)

Publication Number Publication Date
MXPA06002241A true MXPA06002241A (es) 2006-08-31

Family

ID=34216150

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA06002241A MXPA06002241A (es) 2003-08-26 2004-08-26 Metodo y aparato para controlar el funcionamiento de una senal de audio.

Country Status (10)

Country Link
US (3) US20050086705A1 (es)
EP (1) EP1665792A4 (es)
JP (1) JP2007504495A (es)
KR (1) KR20060123072A (es)
CN (1) CN1871856A (es)
AU (1) AU2004267864B2 (es)
BR (1) BRPI0413407A (es)
CA (1) CA2536260A1 (es)
MX (1) MXPA06002241A (es)
WO (1) WO2005020034A2 (es)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7558472B2 (en) 2000-08-22 2009-07-07 Tivo Inc. Multimedia signal processing system
US6233389B1 (en) 1998-07-30 2001-05-15 Tivo, Inc. Multimedia time warping system
EP1885128A3 (en) 1999-09-20 2008-03-12 Tivo, Inc. Closed caption tagging system
US7975021B2 (en) 2000-10-23 2011-07-05 Clearplay, Inc. Method and user interface for downloading audio and video content filters to a media player
US6898799B1 (en) * 2000-10-23 2005-05-24 Clearplay, Inc. Multimedia content navigation and playback
US6889383B1 (en) * 2000-10-23 2005-05-03 Clearplay, Inc. Delivery of navigation data for playback of audio and video content
US8117282B2 (en) 2004-10-20 2012-02-14 Clearplay, Inc. Media player configured to receive playback filters from alternative storage mediums
WO2006055920A2 (en) 2004-11-19 2006-05-26 Tivo Inc. Method and apparatus for secure transfer of previously broadcasted content
CN101199146B (zh) * 2005-04-14 2012-03-14 汤姆森特许公司 实时自动替换来自音频信号的不良音频内容的方法,装置和系统
AU2006236335A1 (en) 2005-04-18 2006-10-26 Clearplay, Inc. Apparatus, system and method for associating one or more filter files with a particular multimedia presentation
US8086168B2 (en) * 2005-07-06 2011-12-27 Sandisk Il Ltd. Device and method for monitoring, rating and/or tuning to an audio content channel
US8577684B2 (en) * 2005-07-13 2013-11-05 Intellisist, Inc. Selective security masking within recorded speech utilizing speech recognition techniques
US20070168853A1 (en) * 2006-01-05 2007-07-19 Jarman Matthew T Apparatus, system and method for creation, delivery and utilization of recommended multimedia filter settings
US20070250852A1 (en) * 2006-03-23 2007-10-25 Sbc Knowledge Ventures, Lp System and method of editing video content
US7661121B2 (en) 2006-06-22 2010-02-09 Tivo, Inc. In-band data recognition and synchronization system
US7873982B2 (en) * 2006-06-22 2011-01-18 Tivo Inc. Method and apparatus for creating and viewing customized multimedia segments
US8041025B2 (en) * 2006-08-07 2011-10-18 International Business Machines Corporation Systems and arrangements for controlling modes of audio devices based on user selectable parameters
US8156518B2 (en) * 2007-01-30 2012-04-10 At&T Intellectual Property I, L.P. System and method for filtering audio content
US8103506B1 (en) * 2007-09-20 2012-01-24 United Services Automobile Association Free text matching system and method
ITMI20080794A1 (it) * 2008-04-30 2009-11-01 Colby S R L Metodo e sistema per convertire parlato in testo
US9077933B2 (en) 2008-05-14 2015-07-07 At&T Intellectual Property I, L.P. Methods and apparatus to generate relevance rankings for use by a program selector of a media presentation system
US9202460B2 (en) * 2008-05-14 2015-12-01 At&T Intellectual Property I, Lp Methods and apparatus to generate a speech recognition library
CN102124523B (zh) 2008-07-04 2014-08-27 布克查克控股有限公司 制作并播放音带的方法和系统
US8086611B2 (en) 2008-11-18 2011-12-27 At&T Intellectual Property I, L.P. Parametric analysis of media metadata
CN101834929B (zh) * 2009-03-13 2014-03-26 深圳富泰宏精密工业有限公司 音频播放系统及方法
US8438596B2 (en) 2009-04-08 2013-05-07 Tivo Inc. Automatic contact information transmission system
US8878913B2 (en) * 2010-03-12 2014-11-04 Sony Corporation Extended command stream for closed caption disparity
KR20140054381A (ko) * 2011-09-30 2014-05-08 인텔 코오퍼레이션 패턴 매칭을 이용한 미디어 콘텐트 등급 관리
US8996543B2 (en) 2012-01-24 2015-03-31 Arrabon Management Services, LLC Method and system for identifying and accessing multimedia content
US9026544B2 (en) 2012-01-24 2015-05-05 Arrabon Management Services, LLC Method and system for identifying and accessing multimedia content
US9098510B2 (en) 2012-01-24 2015-08-04 Arrabon Management Services, LLC Methods and systems for identifying and accessing multimedia content
US8965908B1 (en) 2012-01-24 2015-02-24 Arrabon Management Services Llc Methods and systems for identifying and accessing multimedia content
WO2013136118A1 (en) 2012-03-14 2013-09-19 Nokia Corporation Spatial audio signal filtering
US8804035B1 (en) * 2012-09-25 2014-08-12 The Directv Group, Inc. Method and system for communicating descriptive data in a television broadcast system
CN103945272B (zh) * 2013-01-23 2018-03-06 腾讯科技(北京)有限公司 一种视频交互方法、装置和系统
US9134952B2 (en) * 2013-04-03 2015-09-15 Lg Electronics Inc. Terminal and control method thereof
TWI508033B (zh) * 2013-04-26 2015-11-11 Wistron Corp 語言學習方法與裝置以及電腦可讀記錄媒體
KR20150021258A (ko) * 2013-08-20 2015-03-02 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9116630B2 (en) 2013-08-30 2015-08-25 Nimble Storage, Inc. Method and system for migrating data between storage devices of a storage array
JP6596924B2 (ja) * 2014-05-29 2019-10-30 日本電気株式会社 音声データ処理装置、音声データ処理方法、及び、音声データ処理プログラム
US10276166B2 (en) * 2014-07-22 2019-04-30 Nuance Communications, Inc. Method and apparatus for detecting splicing attacks on a speaker verification system
CN104635927A (zh) * 2015-01-27 2015-05-20 深圳富泰宏精密工业有限公司 互动显示系统及方法
CN107690089A (zh) 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 数据处理方法、直播方法及装置
US10349136B2 (en) 2017-03-22 2019-07-09 Opentv, Inc. User-initiated transitioning between media content versions
JP6787491B2 (ja) * 2017-06-28 2020-11-18 ヤマハ株式会社 音発生装置及び方法
CN112219214A (zh) 2018-04-06 2021-01-12 光辉公司 用于面试训练的具有时间匹配反馈的系统及方法
US10834462B2 (en) * 2018-09-17 2020-11-10 International Business Machines Corporation System and method for context detection of objectionable speech in video
US11089163B2 (en) * 2019-03-18 2021-08-10 Avaya Inc. Automated queuing system and queue management
US11087744B2 (en) 2019-12-17 2021-08-10 Spotify Ab Masking systems and methods
CN111935541B (zh) * 2020-08-12 2021-10-01 北京字节跳动网络技术有限公司 视频修正方法、装置、可读介质及电子设备
US11921889B2 (en) 2020-10-13 2024-03-05 International Business Machines Corporation Selective display of sensitive data
US11122341B1 (en) 2020-11-24 2021-09-14 International Business Machines Corporation Contextual event summary annotations for video streams
US11941320B2 (en) 2021-09-28 2024-03-26 Arlo Technologies, Inc. Electronic monitoring system having modified audio output
CN114979787A (zh) * 2022-05-17 2022-08-30 北京量子之歌科技有限公司 一种直播回放管理方法、装置、设备及存储介质

Family Cites Families (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3581029A (en) * 1968-09-10 1971-05-25 Douglas G Noiles Tv on time control
US4085422A (en) * 1973-10-31 1978-04-18 Hokuryo Denko Co., Ltd. Fee-charging apparatus for television sets
US4012583A (en) * 1975-03-03 1977-03-15 Motorola, Inc. Pay TV control system
US4081754A (en) * 1977-01-31 1978-03-28 Jackson Joseph N Programmable television receiver controllers
US4246495A (en) * 1978-10-05 1981-01-20 Jerome Pressman Television monitor and control
US4569026A (en) * 1979-02-05 1986-02-04 Best Robert M TV Movies that talk back
NL7908476A (nl) * 1979-11-21 1981-06-16 Philips Nv Inrichting voor interaktieve beeldweergave.
US4348696A (en) * 1980-09-08 1982-09-07 Beier Galen C Television viewing control device
US4386436A (en) * 1981-02-27 1983-05-31 Rca Corporation Television remote control system for selectively controlling external apparatus through the AC power line
AU1104583A (en) * 1981-12-19 1983-06-30 Frederick William Chard Method and apparatus for editing the output of a television
US4520404A (en) * 1982-08-23 1985-05-28 Kohorn H Von System, apparatus and method for recording and editing broadcast transmissions
IT1156544B (it) * 1982-11-08 1987-02-04 Olivetti & Co Spa Metodo ed apparecchiatura di riconoscimento fonetico di parole
US4570192A (en) * 1982-11-30 1986-02-11 Sony Corporation Video recording and/or reproducing apparatus with edit control circuit
US4685003A (en) * 1983-12-02 1987-08-04 Lex Computing & Management Corporation Video composition method and apparatus for providing simultaneous inputting and sorting of video source material
US4538188A (en) * 1982-12-22 1985-08-27 Montage Computer Corporation Video composition method and apparatus
US4506387A (en) * 1983-05-25 1985-03-19 Walter Howard F Programming-on-demand cable system and method
US4566033A (en) * 1983-08-11 1986-01-21 Reidenouer Linda L Television viewing time regulator
JPS60234232A (ja) * 1984-05-07 1985-11-20 Matsushita Electric Ind Co Ltd 光デイスクおよびそのトラツキング方法
US4644515A (en) * 1984-11-20 1987-02-17 Resolution Research, Inc. Interactive multi-user laser disc system
US4729044A (en) * 1985-02-05 1988-03-01 Lex Computing & Management Corporation Method and apparatus for playing serially stored segments in an arbitrary sequence
US4685131A (en) * 1985-03-11 1987-08-04 General Instrument Corp. Program blocking method for use in direct broadcast satellite system
JPH0746429B2 (ja) * 1985-06-21 1995-05-17 オリンパス光学工業株式会社 光学式記録再生装置
US4689619A (en) * 1985-12-26 1987-08-25 General Instrument Corporation Method and apparatus for polling subscriber terminals
US4754342A (en) * 1986-04-11 1988-06-28 Cmx Corporation Video editing system having virtual memory
US4766547A (en) * 1986-04-14 1988-08-23 Transfer Technologies, Inc. Computer controlled conveyor system
US4750213A (en) * 1986-06-09 1988-06-07 Novak Albert P Method and system for editing unwanted program material from broadcast signals
US4930160A (en) * 1987-09-02 1990-05-29 Vogel Peter S Automatic censorship of video programs
US4995078A (en) * 1988-06-09 1991-02-19 Monslow H Vincent Television broadcast system for selective transmission of viewer-chosen programs at viewer-requested times
GB2219886A (en) * 1988-06-15 1989-12-20 Philips Nv Recording and playback apparatus
US4891694A (en) * 1988-11-21 1990-01-02 Bell Communications Research, Inc. Fiber optic cable television distribution system
US4949187A (en) * 1988-12-16 1990-08-14 Cohen Jason M Video communications system having a remotely controlled central source of video and audio data
US5532732A (en) * 1988-12-23 1996-07-02 Gemstar Development Corporation Apparatus and methods for using compressed codes for monitoring television program viewing
CA2005070C (en) * 1988-12-23 1999-04-27 Henry C. Yuen Apparatus and method for using encoded video recorder/player timer preprogramming information
US5109482A (en) * 1989-01-11 1992-04-28 David Bohrman Interactive video control system for displaying user-selectable clips
US4947244A (en) * 1989-05-03 1990-08-07 On Command Video Corporation Video selection and distribution system
JPH0374139A (ja) * 1989-05-16 1991-03-28 Sony Corp 電源状態検出装置
US5122886A (en) * 1989-06-19 1992-06-16 Pioneer Electronic Corporation Selective information playback from recording medium based on user input content codes
JP2789723B2 (ja) * 1989-10-20 1998-08-20 ソニー株式会社 画像検索装置
US5218672A (en) * 1990-01-19 1993-06-08 Sony Corporation Of America Offline editing system with user interface for controlling edit list generation
US5130792A (en) * 1990-02-01 1992-07-14 Usa Video Inc. Store and forward video system
US4956825A (en) * 1990-02-05 1990-09-11 Wilts Charles H Device for monitoring the rate of use of an electrical appliance
US5101364A (en) * 1990-02-09 1992-03-31 Massachusetts Institute Of Technology Method and facility for dynamic video composition and viewing
JP2536947B2 (ja) * 1990-02-23 1996-09-25 パイオニア株式会社 ディスクの記録及び読取方法
JPH04105269A (ja) * 1990-08-24 1992-04-07 Sony Corp ディスク記録装置及びディスク記録再生装置
US5231310A (en) * 1990-09-05 1993-07-27 Oh Soo Young Electrical and electronic appliance lock
KR0178536B1 (ko) * 1991-03-11 1999-04-15 강진구 동종 프로그램 채널 선택방법
US5210611A (en) * 1991-08-12 1993-05-11 Keen Y. Yee Automatic tuning radio/TV using filtered seek
US5195135A (en) * 1991-08-12 1993-03-16 Palmer Douglas A Automatic multivariate censorship of audio-video programming by user-selectable obscuration
JPH0528190U (ja) * 1991-09-19 1993-04-09 コステム株式会社 外部遠隔操作対応型画像提供装置
US5199077A (en) * 1991-09-19 1993-03-30 Xerox Corporation Wordspotting for voice editing and indexing
US5724091A (en) * 1991-11-25 1998-03-03 Actv, Inc. Compressed digital data interactive program system
US5434678A (en) * 1993-01-11 1995-07-18 Abecassis; Max Seamless transmission of non-sequential video segments
US5953485A (en) * 1992-02-07 1999-09-14 Abecassis; Max Method and system for maintaining audio during video control
US6553178B2 (en) * 1992-02-07 2003-04-22 Max Abecassis Advertisement subsidized video-on-demand system
US5610653A (en) * 1992-02-07 1997-03-11 Abecassis; Max Method and system for automatically tracking a zoomed video image
US6208805B1 (en) * 1992-02-07 2001-03-27 Max Abecassis Inhibiting a control function from interfering with a playing of a video
US5331353A (en) * 1992-03-10 1994-07-19 Mindmaster Inc. Device for limiting the amount of time an electrical appliance such as a television may be used
US5223924A (en) * 1992-05-27 1993-06-29 North American Philips Corporation System and method for automatically correlating user preferences with a T.V. program information database
US5333275A (en) * 1992-06-23 1994-07-26 Wheatley Barbara J System and method for time aligning speech
US5333091B2 (en) * 1993-01-08 1996-12-17 Arthur D Little Enterprises Method and apparatus for controlling a videotape player to automatically scan past recorded commercial messages
US5987211A (en) * 1993-01-11 1999-11-16 Abecassis; Max Seamless transmission of non-sequential video segments
JPH06309801A (ja) * 1993-04-28 1994-11-04 Toshiba Corp ディスク記録再生方式
US5949471A (en) * 1993-07-29 1999-09-07 Gemstar Development Corporation Apparatus and method for improved parental control of television use
US5481296A (en) * 1993-08-06 1996-01-02 International Business Machines Corporation Apparatus and method for selectively viewing video information
ATE206263T1 (de) * 1993-10-29 2001-10-15 Time Warner Entertainm Co Lp Datenträger mit mehreren versionen vom gleichen kinofilm
US5387942A (en) * 1993-11-24 1995-02-07 Lemelson; Jerome H. System for controlling reception of video signals
US5805771A (en) * 1994-06-22 1998-09-08 Texas Instruments Incorporated Automatic language identification method and system
GB2290684A (en) * 1994-06-22 1996-01-03 Ibm Speech synthesis using hidden Markov model to determine speech unit durations
US5886746A (en) * 1994-12-13 1999-03-23 Gemstar Development Corporation Method for channel scanning
US5778135A (en) * 1994-12-30 1998-07-07 International Business Machines Corporation Real-time edit control for video program material
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
JP3065227B2 (ja) * 1995-03-10 2000-07-17 ソニー株式会社 視聴制限装置および視聴制限方法
US5543851A (en) * 1995-03-13 1996-08-06 Chang; Wen F. Method and apparatus for translating closed caption data
US5659366A (en) * 1995-05-10 1997-08-19 Matsushita Electric Corporation Of America Notification system for television receivers
US5872588A (en) * 1995-12-06 1999-02-16 International Business Machines Corporation Method and apparatus for monitoring audio-visual materials presented to a subscriber
JP3416007B2 (ja) * 1995-12-06 2003-06-16 インターナショナル・ビジネス・マシーンズ・コーポレーション オーディオビジュアル・マテリアルをスクリーニングする装置及び方法
US20030093790A1 (en) * 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US5870708A (en) * 1996-10-10 1999-02-09 Walter S. Stewart Method of and apparatus for scanning for and replacing words on video cassettes
US6177931B1 (en) * 1996-12-19 2001-01-23 Index Systems, Inc. Systems and methods for displaying and recording control interface with television programs, video, advertising information and program scheduling information
US5987525A (en) * 1997-04-15 1999-11-16 Cddb, Inc. Network delivery of interactive entertainment synchronized to playback of audio recordings
US6181364B1 (en) * 1997-05-16 2001-01-30 United Video Properties, Inc. System for filtering content from videos
KR100234265B1 (ko) * 1997-06-17 1999-12-15 윤종용 캡션 데이터 처리 회로 및 그 방법
US6972802B2 (en) * 1997-10-21 2005-12-06 Bray J Richard Language filter for home TV
US6166780A (en) * 1997-10-21 2000-12-26 Principle Solutions, Inc. Automated language filter
US6075550A (en) * 1997-12-23 2000-06-13 Lapierre; Diane Censoring assembly adapted for use with closed caption television
US6100916A (en) * 1998-05-20 2000-08-08 Lucent Technologies Inc. System and method for subscriber controlled signal blocking
US6553566B1 (en) * 1998-08-27 2003-04-22 X Out Corporation Viewer controlled multi-function system for processing television signals
US6504990B1 (en) * 1998-11-12 2003-01-07 Max Abecassis Randomly and continuously playing fragments of a video segment
US6408128B1 (en) * 1998-11-12 2002-06-18 Max Abecassis Replaying with supplementary information a segment of a video
JP3361066B2 (ja) * 1998-11-30 2003-01-07 松下電器産業株式会社 音声合成方法および装置
US6243676B1 (en) * 1998-12-23 2001-06-05 Openwave Systems Inc. Searching and retrieving multimedia information
US6192340B1 (en) * 1999-10-19 2001-02-20 Max Abecassis Integration of music from a personal library with real-time information
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
US20020072915A1 (en) * 1999-12-29 2002-06-13 Bower Ian L. Hyperspeech system and method
US6351596B1 (en) * 2000-01-07 2002-02-26 Time Warner Entertainment Co, Lp Content control of broadcast programs
US6771885B1 (en) * 2000-02-07 2004-08-03 Koninklijke Philips Electronics N.V. Methods and apparatus for recording programs prior to or beyond a preset recording time period
JP3515039B2 (ja) * 2000-03-03 2004-04-05 沖電気工業株式会社 テキスト音声変換装置におけるピッチパタン制御方法
US7263484B1 (en) * 2000-03-04 2007-08-28 Georgia Tech Research Corporation Phonetic searching
US6505153B1 (en) * 2000-05-22 2003-01-07 Compaq Information Technologies Group, L.P. Efficient method for producing off-line closed captions
GB0015233D0 (en) * 2000-06-21 2000-08-16 Canon Kk Indexing method and apparatus
US6898799B1 (en) * 2000-10-23 2005-05-24 Clearplay, Inc. Multimedia content navigation and playback
US20020086269A1 (en) * 2000-12-18 2002-07-04 Zeev Shpiro Spoken language teaching system based on language unit segmentation
US7058889B2 (en) * 2001-03-23 2006-06-06 Koninklijke Philips Electronics N.V. Synchronizing text/visual information with audio playback
US7143353B2 (en) * 2001-03-30 2006-11-28 Koninklijke Philips Electronics, N.V. Streaming video bookmarks
DE10138408A1 (de) * 2001-08-04 2003-02-20 Philips Corp Intellectual Pty Verfahren zur Unterstützung des Korrekturlesens eines spracherkannten Textes mit an die Erkennungszuverlässigkeit angepasstem Wiedergabegeschwindigkeitsverlauf
DE60234195D1 (de) * 2001-08-31 2009-12-10 Kenwood Corp Vorrichtung und verfahren zum erzeugen eines tonhöhen-kurvenformsignals und vorrichtung und verfahren zum komprimieren, dekomprimieren und synthetisieren eines sprachsignals damit
US7043431B2 (en) * 2001-08-31 2006-05-09 Nokia Corporation Multilingual speech recognition system using text derived recognition models
US7162475B2 (en) * 2002-04-17 2007-01-09 Ackerman David M Method for user verification and authentication and multimedia processing for interactive database management and method for viewing the multimedia
GB2391143A (en) * 2002-04-17 2004-01-28 Rhetorical Systems Ltd Method and apparatus for scultping synthesized speech
US20060190249A1 (en) * 2002-06-26 2006-08-24 Jonathan Kahn Method for comparing a transcribed text file with a previously created file
EP1652173B1 (en) * 2002-06-28 2015-12-30 Chemtron Research LLC Method and system for processing speech
US7360234B2 (en) * 2002-07-02 2008-04-15 Caption Tv, Inc. System, method, and computer program product for selective filtering of objectionable content from a program
US20040024599A1 (en) * 2002-07-31 2004-02-05 Intel Corporation Audio search conducted through statistical pattern matching
US20040044532A1 (en) * 2002-09-03 2004-03-04 International Business Machines Corporation System and method for remote audio caption visualizations
US7426470B2 (en) * 2002-10-03 2008-09-16 Ntt Docomo, Inc. Energy-based nonuniform time-scale modification of audio signals
US20040073428A1 (en) * 2002-10-10 2004-04-15 Igor Zlokarnik Apparatus, methods, and programming for speech synthesis via bit manipulations of compressed database
US6961704B1 (en) * 2003-01-31 2005-11-01 Speechworks International, Inc. Linguistic prosodic model-based text to speech
US20040210443A1 (en) * 2003-04-17 2004-10-21 Roland Kuhn Interactive mechanism for retrieving information from audio and multimedia files containing speech
US7305341B2 (en) * 2003-06-25 2007-12-04 Lucent Technologies Inc. Method of reflecting time/language distortion in objective speech quality assessment
US6889393B1 (en) * 2003-07-09 2005-05-10 Jim Rinaldo Combined portable stool and toilet
US7904296B2 (en) * 2003-07-23 2011-03-08 Nexidia Inc. Spoken word spotting queries
US7437290B2 (en) * 2004-10-28 2008-10-14 Microsoft Corporation Automatic censorship of audio data for broadcast

Also Published As

Publication number Publication date
JP2007504495A (ja) 2007-03-01
AU2004267864B2 (en) 2009-07-02
BRPI0413407A (pt) 2006-10-10
US20160029084A1 (en) 2016-01-28
WO2005020034A2 (en) 2005-03-03
US9066046B2 (en) 2015-06-23
KR20060123072A (ko) 2006-12-01
US20090204404A1 (en) 2009-08-13
AU2004267864A1 (en) 2005-03-03
EP1665792A2 (en) 2006-06-07
US20050086705A1 (en) 2005-04-21
US9762963B2 (en) 2017-09-12
WO2005020034A3 (en) 2006-02-09
CA2536260A1 (en) 2005-03-03
CN1871856A (zh) 2006-11-29
EP1665792A4 (en) 2007-11-28

Similar Documents

Publication Publication Date Title
US9762963B2 (en) Method and apparatus for controlling play of an audio signal
JP3844431B2 (ja) 発話認識に基づいたキャプションシステム
US6718303B2 (en) Apparatus and method for automatically generating punctuation marks in continuous speech recognition
US20080195386A1 (en) Method and a Device For Performing an Automatic Dubbing on a Multimedia Signal
US6996526B2 (en) Method and apparatus for transcribing speech when a plurality of speakers are participating
US20070118374A1 (en) Method for generating closed captions
US20070118364A1 (en) System for generating closed captions
KR20030008726A (ko) 음성인식에 따른 오동작을 방지 및 음성인식율을 향상 할수 있는 전자기기 및 방법
JP2004343488A (ja) 字幕挿入方法、字幕挿入システム、および字幕挿入プログラム
JP4934090B2 (ja) 番組登場人物抽出装置及び番組登場人物抽出プログラム
JP4587916B2 (ja) 音声信号判別装置、音質調整装置、コンテンツ表示装置、プログラム、及び記録媒体
JP5022193B2 (ja) 字幕監視装置及び字幕監視プログラム
KR102319101B1 (ko) 쉰목소리 잡음 제거시스템
JPWO2014148190A1 (ja) 要約筆記支援システム、情報配信装置、端末装置、要約筆記支援方法、及びプログラム
KR20160011490A (ko) 멀티 채널 오디오 데이터의 시각화 장치 및 방법
JP2002244694A (ja) 字幕送出タイミング検出装置
JP4219129B2 (ja) テレビジョン受像機
JP7248564B2 (ja) 情報処理装置及びプログラム
JP2006093918A (ja) デジタル放送受信装置、デジタル放送受信方法、デジタル放送受信プログラム及びプログラム記録媒体
Lodge et al. Helping blind people to watch television-the AUDETEL project
JP2006129171A (ja) 映像機器および音声出力制御方法
JP2010231241A (ja) 音声信号判別装置、音質調整装置、コンテンツ表示装置、プログラム、及び記録媒体

Legal Events

Date Code Title Description
FA Abandonment or withdrawal